electra-small-finetuned-squadv1
mrm8488
Pregunta y respuesta
Electra-pequeño-discriminator ajustado con el conjunto de datos SQUAD v1.1 para tareas de preguntas y respuestas. ELECTRA es un nuevo método para el aprendizaje de representaciones de lenguaje autoguiado que puede pre-entrenar redes de transformadores usando relativamente poco cómputo. Los modelos ELECTRA están entrenados para distinguir entre 'reales' y 'falsos' tokens de entrada generados por otra red neuronal, similar al discriminador de un GAN. A pequeña escala, ELECTRA logra resultados sólidos incluso cuando se entrena en una sola GPU, y a gran escala, ELECTRA logra resultados de vanguardia en el conjunto de datos SQuAD 2.0.
Como usar
Uso rápido con pipelines:
from transformers import pipeline
QnA_pipeline = pipeline('question-answering', model='mrm8488/electra-small-finetuned-squadv1')
QnA_pipeline({
'context': 'A new strain of flu that has the potential to become a pandemic has been identified in China by scientists.',
'question': 'What has been discovered by scientists from China ?'
})
Salida:
{'answer': 'A new strain of flu', 'end': 19, 'score': 0.7950334108113424, 'start': 0}
Funcionalidades
- Método de aprendizaje de representaciones de lenguaje autoguiado
- Pre-entrenamiento de redes de transformadores
- Capaz de distinguir tokens reales de tokens falsos
- Resultados sólidos con poco cómputo
- Resultados de vanguardia en SQuAD 2.0
Casos de uso
- Responde preguntas basadas en contexto dado
- Mejora en tareas de comprensión lectora
- Aplicaciones en chatbots
- Sistemas de asistencia virtual
- Plataformas educativas interactivas