electricidad-small-finetuned-squadv1-es
mrm8488
Pregunta y respuesta
Electricidad-small-discriminator afinado en el dataset SQUAD-es v1.1 para la tarea de preguntas y respuestas. El modelo fue entrenado en una GPU Tesla P100 y 25 GB de RAM utilizando un comando específico. A continuación se muestran los detalles de su rendimiento en el conjunto de pruebas y un ejemplo de cómo usarlo en acción.
Como usar
Uso rápido con pipelines:
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model="mrm8488/electricidad-small-finetuned-squadv1-es",
tokenizer="mrm8488/electricidad-small-finetuned-squadv1-es")
context = "Manuel ha creado una versión del modelo Electra small en español que alcanza una puntuación F1 de 65 en el dataset SQUAD-es y sólo pesa 50 MB"
q1 = "Cuál es su marcador F1?"
q2 = "¿Cuál es el tamaño del modelo?"
q3 = "¿Quién lo ha creado?"
q4 = "¿Que es lo que ha hecho Manuel?"
questions = [q1, q2, q3, q4]
for question in questions:
result = qa_pipeline({
'context': context,
'question': question})
print(result)
Salida:
{'score': 0.14836778166355025, 'start': 98, 'end': 100, 'answer': '65'}
{'score': 0.32219420810758237, 'start': 136, 'end': 140, 'answer': '50 MB'}
{'score': 0.9672326951118713, 'start': 0, 'end': 6, 'answer': 'Manuel'}
{'score': 0.23552458113848118, 'start': 10, 'end': 53, 'answer': 'creado una versión del modelo Electra small'}
Funcionalidades
- Afinado en el dataset SQUAD-es v1.1
- Compatible con Transformers y PyTorch
- Optimizado para preguntas y respuestas en español
- Evaluado con métricas EM (Exact Match) y F1
Casos de uso
- Responder preguntas en español basadas en un contexto dado
- Integración en aplicaciones de atención al cliente para respuestas automáticas
- Asistencia en la generación de contenido en español
- Soporte en educación y formación mediante sistemas de preguntas y respuestas