electra-base-finetuned-squadv1

mrm8488
Pregunta y respuesta

Electra-base-discriminator afinado en el conjunto de datos SQuAD v1.1 para la tarea de preguntas y respuestas (Q&A). ELECTRA es un nuevo método para el aprendizaje de representaciones lingüísticas auto-supervisadas que se puede utilizar para preentrenar redes de transformadores utilizando relativamente pocos recursos computacionales. Los modelos ELECTRA están entrenados para distinguir entre los tokens de entrada 'reales' y los tokens de entrada 'falsos' generados por otra red neuronal, similar al discriminador de un GAN. A pequeña escala, ELECTRA logra resultados sólidos incluso cuando se entrena en una sola GPU. A gran escala, ELECTRA logra resultados de vanguardia en el conjunto de datos SQuAD 2.0.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

QnA_pipeline = pipeline('question-answering', model='mrm8488/electra-base-finetuned-squadv1')

QnA_pipeline({
    'context': 'Una nueva cepa de gripe que tiene el potencial de convertirse en una pandemia ha sido identificada en China por científicos.',
    'question': '¿Qué han descubierto los científicos de China?'
})
# Salida:
{'answer': 'Una nueva cepa de gripe', 'end': 19, 'score': 0.9995211430099182, 'start': 0}

Funcionalidades

Método para el aprendizaje de representaciones lingüísticas auto-supervisadas
Capacidad de preentrenar redes de transformadores con pocos recursos computacionales
Resultados sólidos a pequeña escala con una sola GPU
Resultados de vanguardia en el conjunto de datos SQuAD 2.0
Afinado en el conjunto de datos SQuAD v1.1

Casos de uso

Tarea de preguntas y respuestas (Q&A)
Comprensión de lectura