keras-io/bert-semantic-similarity

keras-io
Similitud de oraciones

Este repositorio contiene el modelo y el cuaderno para el ajuste fino del modelo BERT en el Corpus SNLI para la Similitud Semántica. Similitud Semántica con BERT. Todos los créditos van para Mohamad Merchant, reproducido por Vu Minh Chien. Motivación: La Similitud Semántica determina cuán similares son dos oraciones, en términos de su significado. En este tutorial, podemos ajustar finamente el modelo BERT y usarlo para predecir el puntaje de similitud para dos oraciones.

Como usar

Este ejemplo demuestra el uso del Corpus de Inferencia de Lenguaje Natural de Stanford (SNLI) para predecir la similitud semántica de oraciones con Transformers.

Total muestras de entrenamiento: 100000

Total muestras de validación: 10000

Total muestras de prueba: 10000

Estos son los valores de etiqueta de "similitud" en el conjunto de datos SNLI:

  • Contradicción: Las oraciones no comparten similitud.
  • Implicación: Las oraciones tienen un significado similar.
  • Neutral: Las oraciones son neutrales.

Funcionalidades

Ajuste fino del modelo BERT
Predicción de puntajes de similitud semántica
Utiliza el Corpus SNLI

Casos de uso

Determinar la similitud entre dos oraciones en términos de su significado
Clasificación de frases en Contradicción, Implicación y Neutral