electra-base-finetuned-squadv1
mrm8488
Pregunta y respuesta
Electra-base-discriminator afinado en el conjunto de datos SQuAD v1.1 para la tarea de preguntas y respuestas (Q&A). ELECTRA es un nuevo método para el aprendizaje de representaciones lingüísticas auto-supervisadas que se puede utilizar para preentrenar redes de transformadores utilizando relativamente pocos recursos computacionales. Los modelos ELECTRA están entrenados para distinguir entre los tokens de entrada 'reales' y los tokens de entrada 'falsos' generados por otra red neuronal, similar al discriminador de un GAN. A pequeña escala, ELECTRA logra resultados sólidos incluso cuando se entrena en una sola GPU. A gran escala, ELECTRA logra resultados de vanguardia en el conjunto de datos SQuAD 2.0.
Como usar
Uso rápido con pipelines:
from transformers import pipeline
QnA_pipeline = pipeline('question-answering', model='mrm8488/electra-base-finetuned-squadv1')
QnA_pipeline({
'context': 'Una nueva cepa de gripe que tiene el potencial de convertirse en una pandemia ha sido identificada en China por científicos.',
'question': '¿Qué han descubierto los científicos de China?'
})
# Salida:
{'answer': 'Una nueva cepa de gripe', 'end': 19, 'score': 0.9995211430099182, 'start': 0}
Funcionalidades
- Método para el aprendizaje de representaciones lingüísticas auto-supervisadas
- Capacidad de preentrenar redes de transformadores con pocos recursos computacionales
- Resultados sólidos a pequeña escala con una sola GPU
- Resultados de vanguardia en el conjunto de datos SQuAD 2.0
- Afinado en el conjunto de datos SQuAD v1.1
Casos de uso
- Tarea de preguntas y respuestas (Q&A)
- Comprensión de lectura