electra-small-finetuned-squadv1

mrm8488
Pregunta y respuesta

Electra-pequeño-discriminator ajustado con el conjunto de datos SQUAD v1.1 para tareas de preguntas y respuestas. ELECTRA es un nuevo método para el aprendizaje de representaciones de lenguaje autoguiado que puede pre-entrenar redes de transformadores usando relativamente poco cómputo. Los modelos ELECTRA están entrenados para distinguir entre 'reales' y 'falsos' tokens de entrada generados por otra red neuronal, similar al discriminador de un GAN. A pequeña escala, ELECTRA logra resultados sólidos incluso cuando se entrena en una sola GPU, y a gran escala, ELECTRA logra resultados de vanguardia en el conjunto de datos SQuAD 2.0.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

QnA_pipeline = pipeline('question-answering', model='mrm8488/electra-small-finetuned-squadv1')
QnA_pipeline({
'context': 'A new strain of flu that has the potential to become a pandemic has been identified in China by scientists.',
'question': 'What has been discovered by scientists from China ?'
})

Salida:

{'answer': 'A new strain of flu', 'end': 19, 'score': 0.7950334108113424, 'start': 0}

Funcionalidades

Método de aprendizaje de representaciones de lenguaje autoguiado
Pre-entrenamiento de redes de transformadores
Capaz de distinguir tokens reales de tokens falsos
Resultados sólidos con poco cómputo
Resultados de vanguardia en SQuAD 2.0

Casos de uso

Responde preguntas basadas en contexto dado
Mejora en tareas de comprensión lectora
Aplicaciones en chatbots
Sistemas de asistencia virtual
Plataformas educativas interactivas