gpt2-medium-span-head-finetuned-squad
anas-awadalla
Pregunta y respuesta
Este modelo es una versión ajustada de gpt2-medium en el conjunto de datos squad. Más información necesaria
Como usar
from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='anas-awadalla/gpt2-medium-span-head-finetuned-squad')
qa_pipeline({
'question': 'Where do I live?',
'context': 'My name is Wolfgang and I live in Berlin'
})
# Salida: {'answer': 'Berlin', 'end': 28, 'score': 0.98, 'start': 23}
Funcionalidades
- Tasa de aprendizaje: 3e-05
- Tamaño del lote para entrenamiento: 16
- Tamaño del lote para evaluación: 16
- Seed: 42
- Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- Tipo de planificador de tasa de aprendizaje: lineal
- Número de épocas: 2.0
- Versión de Transformers: 4.20.0.dev0
- Versión de PyTorch: 1.11.0+cu113
- Versión de Datasets: 2.3.2
- Versión de Tokenizers: 0.11.6
Casos de uso
- Responder preguntas basadas en contexto
- Generación de texto a partir del modelo GPT-2 ajustado