ELECTRA-Small-MRQA
VMware
Pregunta y respuesta
Este lanzamiento de modelo es parte de un proyecto de investigación conjunto con la Innovation Foundry/AIM-AHEAD Lab de la Universidad de Howard.
Como usar
from transformers import pipeline
question_answerer = pipeline("question-answering", model='VMware/electra-small-mrqa')
context = "Presentamos los resultados de la tarea compartida de Machine Reading for Question Answering (MRQA) 2019 sobre la evaluación de las capacidades de generalización de los sistemas de comprensión de lectura. En esta tarea, adaptamos y unificamos 18 conjuntos de datos distintos de respuesta a preguntas en el mismo formato. Entre ellos, seis conjuntos de datos se pusieron a disposición para el entrenamiento, seis conjuntos de datos para el desarrollo y los últimos seis se ocultaron para la evaluación final. Diez equipos enviaron sistemas, que exploraron varias ideas, incluidas la selección de datos, el aprendizaje multitarea, el entrenamiento adversarial y el ensamble. El mejor sistema logró una puntuación F1 promedio de 72.5 en los 12 conjuntos de datos retenidos, 10.7 puntos absolutos más que nuestra línea base inicial basada en BERT."
question = "¿Qué es MRQA?"
result = question_answerer(question=question, context=context)
print(result)
# {
# 'score': 0.3399854898452759,
# 'start': 30,
# 'end': 68,
# 'answer': 'Machine Reading for Question Answering'
# }
Funcionalidades
- Nombre del modelo: ELECTRA-Small-MRQA
- Tipo de modelo: Respuesta a preguntas extractivas
- Modelo padre: ELECTRA-Small-Discriminator
- Conjunto de datos de entrenamiento: MRQA (Lectura de Máquinas para Responder Preguntas)
- Tamaño del conjunto de datos de entrenamiento: 516,819 ejemplos
- Tiempo de entrenamiento: 2:16:36 en una GPU Nvidia V100 de 32GB
- Idioma: Inglés
- Framework: PyTorch
- Versión del modelo: 1.0
Casos de uso
- Respuestas a preguntas para motores de búsqueda
- Chatbots
- Sistemas de atención al cliente
- Otras aplicaciones que requieren comprensión del lenguaje natural