cross-encoder/ms-marco-MiniLM-L-2-v2
cross-encoder
Clasificación de texto
Este modelo está entrenado en la tarea de clasificación de pasajes de MS Marco. El modelo se puede utilizar para la recuperación de información: dada una consulta, codifica la consulta con todos los posibles pasajes (por ejemplo, recuperados con ElasticSearch). Luego ordena los pasajes en orden descendente. Véase SBERT.net Retrieve & Re-rank para más detalles. El código de entrenamiento está disponible aquí: SBERT.net Training MS Marco.
Como usar
Uso con Transformers
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model = AutoModelForSequenceClassification.from_pretrained('model_name')
tokenizer = AutoTokenizer.from_pretrained('model_name')
features = tokenizer(['¿Cuántas personas viven en Berlín?', '¿Cuántas personas viven en Berlín?'], ['Berlín tiene una población de 3.520.031 habitantes registrados en un área de 891.82 kilómetros cuadrados.', '¿Nueva York es famosa por el Museo Metropolitano de Arte.'], padding=True, truncation=True, return_tensors="pt")
model.eval()
with torch.no_grad():
scores = model(**features).logits
print(scores)
Uso con SentenceTransformers
from sentence_transformers import CrossEncoder
model = CrossEncoder('model_name', max_length=512)
scores = model.predict([('Consulta', 'Párrafo1'), ('Consulta', 'Párrafo2') , ('Consulta', 'Párrafo3')])
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- JAX
- Puntos de inferencia
Casos de uso
- Recuperación de información
- Clasificación de pasajes