liuyanyi/bge-m3-hf

liuyanyi
Similitud de oraciones

BGE-M3 en HuggingFace Transformer. Esta no es una implementación oficial de BGE-M3. La implementación oficial se puede encontrar en el proyecto Flag Embedding.

Como usar

from transformers import AutoModel, AutoTokenizer

# Se requiere confiar en el código remoto para cargar el modelo
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = AutoModel.from_pretrained(model_path, trust_remote_code=True)

input_str = "Hello, world!"
input_ids = tokenizer(input_str, return_tensors="pt", padding=True, truncation=True)

output = model(**input_ids, return_dict=True)

dense_output = output.dense_output # Para alinear con el proyecto Flag Embedding, se requiere una normalización
colbert_output = output.colbert_output # Para alinear con el proyecto Flag Embedding, se requiere una normalización
sparse_output = output.sparse_output

Funcionalidades

sentence-transformers
Safetensors
bge-m3
feature-extraction
custom_code
Inference Endpoints

Casos de uso

Similitud de oraciones
Extracción de características
Compatibilidad con AutoTrain
Compatibilidad con los Endpoints de Inferencia