jeffwan/mmarco-mMiniLMv2-L12-H384-v1

jeffwan
Clasificación de texto

Este modelo fue entrenado en el conjunto de datos MMARCO. Es una versión traducida automáticamente de MS MARCO utilizando Google Translate. Fue traducido a 14 idiomas. En nuestros experimentos, observamos que también funciona bien para otros idiomas. Como modelo base, utilizamos el modelo multilingüe MiniLMv2. El modelo puede ser utilizado para la Recuperación de Información: Dada una consulta, codifique la consulta con todos los pasajes posibles (por ejemplo, recuperados con ElasticSearch). Luego ordene los pasajes en orden decreciente. Consulte SBERT.net Retrieve & Re-rank para más detalles. El código de entrenamiento está disponible aquí: SBERT.net Training MS Marco.

Como usar

El uso se vuelve fácil cuando tienes SentenceTransformers instalado. Entonces, puedes usar los modelos pre-entrenados así:

from sentence_transformers import CrossEncoder
model = CrossEncoder('model_name')
scores = model.predict([('Consulta', 'Párrafo1'), ('Consulta', 'Párrafo2'), ('Consulta', 'Párrafo3')])

Uso con Transformers:

from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

model = AutoModelForSequenceClassification.from_pretrained('model_name')
tokenizer = AutoTokenizer.from_pretrained('model_name')

features = tokenizer(['¿Cuántas personas viven en Berlín?', '¿Cuántas personas viven en Berlín?'], ['Berlín tiene una población de 3,520,031 habitantes registrados en un área de 891.82 kilómetros cuadrados.', 'Nueva York es famosa por el Museo Metropolitano de Arte.'],  padding=True, truncation=True, return_tensors="pt")

model.eval()
with torch.no_grad():
  scores = model(**features).logits
  print(scores)

Funcionalidades

Transformers
PyTorch
multilingüe
clasificación de texto

Casos de uso

Recuperación de Información
Clasificación de texto