SBERT_PQ

inkoziev
Similitud de oraciones

Esta es una modelo de sentence-transformers, destinada a determinar la relevancia de un texto corto (principalmente una oración de hasta 10-15 palabras) y una pregunta. El modelo calcula vectores de dimensión 312 para el texto y la pregunta. El coseno del ángulo entre estos vectores da una evaluación de si el texto contiene la respuesta a la pregunta dada. En el proyecto del sistema de diálogo, se utiliza para la búsqueda semántica de registros en la base de hechos según la pregunta planteada por el interlocutor.

Como usar


```python
import sentence_transformers

sentences = ["Кошка ловит мышку.", "Чем занята кошка?"]

model = sentence_transformers.SentenceTransformer('inkoziev/sbert_pq')
embeddings = model.encode(sentences)

s = sentence_transformers.util.cos_sim(a=embeddings[0], b=embeddings[1])
print('text={} question={} cossim={}'.format(sentences[0], sentences[1], s))

Funcionalidades

Basada en cointegrated/rubert-tiny2
Tamaño muy pequeño
Rápida ejecución de inferencias incluso en CPU
Valor máximo de la métrica cossim_f1 en el conjunto de prueba es 0.986
Al utilizar el modelo sberbank-ai/ruBert-base como base, el máximo cossim_f1 es 0.992

Casos de uso

Determinar la relevancia de un texto corto y una pregunta
Búsqueda semántica de registros en la base de hechos