amberoad/bert-multilingual-passage-reranking-msmarco

amberoad
Clasificación de texto

Este modelo toma una consulta de búsqueda y un pasaje y calcula si el pasaje coincide con la consulta. Puede usarse como una mejora para los resultados de Elasticsearch y aumentar la relevancia hasta en un 100%. La arquitectura incluye una red neuronal densamente conectada que toma como entrada el Token [CLS] de 768 dimensiones y proporciona una salida. La salida es un solo valor entre -10 y 10, con pares de consulta y pasaje mejor coincidentes obteniendo una puntuación más alta.

Como usar

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('amberoad/bert-multilingual-passage-reranking-msmarco')

model = AutoModelForSequenceClassification.from_pretrained('amberoad/bert-multilingual-passage-reranking-msmarco')

Funcionalidades

Soporta más de 100 idiomas.
Mejora los resultados de Elasticsearch.
Proporciona una puntuación entre -10 y 10 para la relevancia del pasaje.
Utiliza una red neuronal densamente conectada en la parte superior de BERT.
Entrenado con el conjunto de datos MS Marco de Microsoft.
Tiempo de inferencia de aproximadamente 300 ms/consulta.

Casos de uso

Mejorar la relevancia de los resultados de búsqueda en Elasticsearch.
Clasificar pasajes en función de la relevancia de una consulta de búsqueda.
Utilizar en motores de búsqueda internos avanzados a través de NLP.
Usar en motores de búsqueda externos para encontrar competidores, clientes y proveedores.