liuyanyi/bge-m3-hf
liuyanyi
Similitud de oraciones
BGE-M3 en HuggingFace Transformer. Esta no es una implementación oficial de BGE-M3. La implementación oficial se puede encontrar en el proyecto Flag Embedding.
Como usar
from transformers import AutoModel, AutoTokenizer
# Se requiere confiar en el código remoto para cargar el modelo
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = AutoModel.from_pretrained(model_path, trust_remote_code=True)
input_str = "Hello, world!"
input_ids = tokenizer(input_str, return_tensors="pt", padding=True, truncation=True)
output = model(**input_ids, return_dict=True)
dense_output = output.dense_output # Para alinear con el proyecto Flag Embedding, se requiere una normalización
colbert_output = output.colbert_output # Para alinear con el proyecto Flag Embedding, se requiere una normalización
sparse_output = output.sparse_output
Funcionalidades
- sentence-transformers
- Safetensors
- bge-m3
- feature-extraction
- custom_code
- Inference Endpoints
Casos de uso
- Similitud de oraciones
- Extracción de características
- Compatibilidad con AutoTrain
- Compatibilidad con los Endpoints de Inferencia