keras-io/bert-semantic-similarity
Este repositorio contiene el modelo y el cuaderno para el ajuste fino del modelo BERT en el Corpus SNLI para la Similitud Semántica. Similitud Semántica con BERT. Todos los créditos van para Mohamad Merchant, reproducido por Vu Minh Chien. Motivación: La Similitud Semántica determina cuán similares son dos oraciones, en términos de su significado. En este tutorial, podemos ajustar finamente el modelo BERT y usarlo para predecir el puntaje de similitud para dos oraciones.
Como usar
Este ejemplo demuestra el uso del Corpus de Inferencia de Lenguaje Natural de Stanford (SNLI) para predecir la similitud semántica de oraciones con Transformers.
Total muestras de entrenamiento: 100000
Total muestras de validación: 10000
Total muestras de prueba: 10000
Estos son los valores de etiqueta de "similitud" en el conjunto de datos SNLI:
- Contradicción: Las oraciones no comparten similitud.
- Implicación: Las oraciones tienen un significado similar.
- Neutral: Las oraciones son neutrales.
Funcionalidades
- Ajuste fino del modelo BERT
- Predicción de puntajes de similitud semántica
- Utiliza el Corpus SNLI
Casos de uso
- Determinar la similitud entre dos oraciones en términos de su significado
- Clasificación de frases en Contradicción, Implicación y Neutral