cross-encoder/ms-marco-MiniLM-L-12-v2

cross-encoder
Clasificación de texto

Este modelo se entrenó en la tarea de clasificación de pasajes de MS Marco. Se puede utilizar para la Recuperación de Información: dado una consulta, codifica la consulta con todos los pasajes posibles (por ejemplo, recuperados con ElasticSearch). Luego ordena los pasajes en orden decreciente.

Como usar

Uso con Transformers

from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

model = AutoModelForSequenceClassification.from_pretrained('model_name')
tokenizer = AutoTokenizer.from_pretrained('model_name')

features = tokenizer(['How many people live in Berlin?', 'How many people live in Berlin?'], ['Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.', 'New York City is famous for the Metropolitan Museum of Art.'],  padding=True, truncation=True, return_tensors="pt")

model.eval()
with torch.no_grad():
  scores = model(**features).logits
print(scores)

Uso con SentenceTransformers

from sentence_transformers import CrossEncoder
model = CrossEncoder('model_name', max_length=512)
scores = model.predict([('Query', 'Paragraph1'), ('Query', 'Paragraph2'), ('Query', 'Paragraph3')])

Funcionalidades

Clasificación de texto
Transformers
PyTorch
JAX
bert
Puntos de Inferencia

Casos de uso

Recuperación de Información
Clasificación de Pasajes