amberoad/bert-multilingual-passage-reranking-msmarco
amberoad
Clasificación de texto
Este modelo toma una consulta de búsqueda y un pasaje y calcula si el pasaje coincide con la consulta. Puede usarse como una mejora para los resultados de Elasticsearch y aumentar la relevancia hasta en un 100%. La arquitectura incluye una red neuronal densamente conectada que toma como entrada el Token [CLS] de 768 dimensiones y proporciona una salida. La salida es un solo valor entre -10 y 10, con pares de consulta y pasaje mejor coincidentes obteniendo una puntuación más alta.
Como usar
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('amberoad/bert-multilingual-passage-reranking-msmarco')
model = AutoModelForSequenceClassification.from_pretrained('amberoad/bert-multilingual-passage-reranking-msmarco')
Funcionalidades
- Soporta más de 100 idiomas.
- Mejora los resultados de Elasticsearch.
- Proporciona una puntuación entre -10 y 10 para la relevancia del pasaje.
- Utiliza una red neuronal densamente conectada en la parte superior de BERT.
- Entrenado con el conjunto de datos MS Marco de Microsoft.
- Tiempo de inferencia de aproximadamente 300 ms/consulta.
Casos de uso
- Mejorar la relevancia de los resultados de búsqueda en Elasticsearch.
- Clasificar pasajes en función de la relevancia de una consulta de búsqueda.
- Utilizar en motores de búsqueda internos avanzados a través de NLP.
- Usar en motores de búsqueda externos para encontrar competidores, clientes y proveedores.