SBERT_PQ
inkoziev
Similitud de oraciones
Esta es una modelo de sentence-transformers, destinada a determinar la relevancia de un texto corto (principalmente una oración de hasta 10-15 palabras) y una pregunta. El modelo calcula vectores de dimensión 312 para el texto y la pregunta. El coseno del ángulo entre estos vectores da una evaluación de si el texto contiene la respuesta a la pregunta dada. En el proyecto del sistema de diálogo, se utiliza para la búsqueda semántica de registros en la base de hechos según la pregunta planteada por el interlocutor.
Como usar
```python
import sentence_transformers
sentences = ["Кошка ловит мышку.", "Чем занята кошка?"]
model = sentence_transformers.SentenceTransformer('inkoziev/sbert_pq')
embeddings = model.encode(sentences)
s = sentence_transformers.util.cos_sim(a=embeddings[0], b=embeddings[1])
print('text={} question={} cossim={}'.format(sentences[0], sentences[1], s))
Funcionalidades
- Basada en cointegrated/rubert-tiny2
- Tamaño muy pequeño
- Rápida ejecución de inferencias incluso en CPU
- Valor máximo de la métrica cossim_f1 en el conjunto de prueba es 0.986
- Al utilizar el modelo sberbank-ai/ruBert-base como base, el máximo cossim_f1 es 0.992
Casos de uso
- Determinar la relevancia de un texto corto y una pregunta
- Búsqueda semántica de registros en la base de hechos