ELECTRA-Base-MRQA
Este modelo es parte de un proyecto de investigación conjunto con el Laboratorio AIM-AHEAD/Foundry de Innovación de la Universidad de Howard. Está diseñado para proporcionar respuestas precisas a preguntas basadas en pasajes de contexto, y puede ser utilizado en motores de búsqueda, chatbots, sistemas de servicio al cliente y otras aplicaciones que requieran comprensión del lenguaje natural. Detalles del modelo: - Nombre del modelo: ELECTRA-Base-MRQA - Tipo de modelo: Extracción de Preguntas y Respuestas - Modelo padre: ELECTRA-Base-Discriminator - Conjunto de datos de entrenamiento: MRQA (Machine Reading for Question Answering) - Tamaño de los datos de entrenamiento: 516,819 ejemplos - Tiempo de entrenamiento: 8:40:57 en 1 GPU Nvidia V100 de 32GB - Idioma: Inglés - Framework: PyTorch - Versión del modelo: 1.0
Como usar
from transformers import pipeline
question_answerer = pipeline("question-answering", model='VMware/electra-base-mrqa')
context = "We present the results of the Machine Reading for Question Answering (MRQA) 2019 shared task on evaluating the generalization capabilities of reading comprehension systems. In this task, we adapted and unified 18 distinct question answering datasets into the same format. Among them, six datasets were made available for training, six datasets were made available for development, and the final six were hidden for final evaluation. Ten teams submitted systems, which explored various ideas including data sampling, multi-task learning, adversarial training and ensembling. The best system achieved an average F1 score of 72.5 on the 12 held-out datasets, 10.7 absolute points higher than our initial baseline based on BERT."
question = "What is MRQA?"
result = question_answerer(question=question, context=context)
print(result)
# {
# 'score': 0.9068707823753357,
# 'start': 30,
# 'end': 68,
# 'answer': 'Machine Reading for Question Answering'
# }
Funcionalidades
- El modelo fue entrenado durante 1 época en el conjunto de entrenamiento MRQA.
- Framework: PyTorch
- Versión del modelo: 1.0
- Evaluado utilizando las métricas estándar para modelos de preguntas y respuestas, incluyendo el exact match (EM) y el puntaje F1.
Casos de uso
- Respuestas a preguntas para motores de búsqueda
- Sistemas de chatbots
- Sistemas de servicio al cliente
- Otras aplicaciones que requieran comprensión del lenguaje natural