electricidad-small-finetuned-squadv1-es

mrm8488
Pregunta y respuesta

Electricidad-small-discriminator afinado en el dataset SQUAD-es v1.1 para la tarea de preguntas y respuestas. El modelo fue entrenado en una GPU Tesla P100 y 25 GB de RAM utilizando un comando específico. A continuación se muestran los detalles de su rendimiento en el conjunto de pruebas y un ejemplo de cómo usarlo en acción.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

qa_pipeline = pipeline(
"question-answering",
model="mrm8488/electricidad-small-finetuned-squadv1-es",
tokenizer="mrm8488/electricidad-small-finetuned-squadv1-es")

context = "Manuel ha creado una versión del modelo Electra small en español que alcanza una puntuación F1 de 65 en el dataset SQUAD-es y sólo pesa 50 MB"

q1 = "Cuál es su marcador F1?"
q2 = "¿Cuál es el tamaño del modelo?"
q3 = "¿Quién lo ha creado?"
q4 = "¿Que es lo que ha hecho Manuel?"

questions = [q1, q2, q3, q4]

for question in questions:
  result = qa_pipeline({
  'context': context,
  'question': question})
  print(result)

Salida:

{'score': 0.14836778166355025, 'start': 98, 'end': 100, 'answer': '65'}
{'score': 0.32219420810758237, 'start': 136, 'end': 140, 'answer': '50 MB'}
{'score': 0.9672326951118713, 'start': 0, 'end': 6, 'answer': 'Manuel'}
{'score': 0.23552458113848118, 'start': 10, 'end': 53, 'answer': 'creado una versión del modelo Electra small'}

Funcionalidades

Afinado en el dataset SQUAD-es v1.1
Compatible con Transformers y PyTorch
Optimizado para preguntas y respuestas en español
Evaluado con métricas EM (Exact Match) y F1

Casos de uso

Responder preguntas en español basadas en un contexto dado
Integración en aplicaciones de atención al cliente para respuestas automáticas
Asistencia en la generación de contenido en español
Soporte en educación y formación mediante sistemas de preguntas y respuestas