gpt2-medium-span-head-finetuned-squad

anas-awadalla
Pregunta y respuesta

Este modelo es una versión ajustada de gpt2-medium en el conjunto de datos squad. Más información necesaria

Como usar

from transformers import pipeline
qa_pipeline = pipeline('question-answering', model='anas-awadalla/gpt2-medium-span-head-finetuned-squad')
qa_pipeline({
    'question': 'Where do I live?',
    'context': 'My name is Wolfgang and I live in Berlin'
})
# Salida: {'answer': 'Berlin', 'end': 28, 'score': 0.98, 'start': 23}

Funcionalidades

Tasa de aprendizaje: 3e-05
Tamaño del lote para entrenamiento: 16
Tamaño del lote para evaluación: 16
Seed: 42
Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
Tipo de planificador de tasa de aprendizaje: lineal
Número de épocas: 2.0
Versión de Transformers: 4.20.0.dev0
Versión de PyTorch: 1.11.0+cu113
Versión de Datasets: 2.3.2
Versión de Tokenizers: 0.11.6

Casos de uso

Responder preguntas basadas en contexto
Generación de texto a partir del modelo GPT-2 ajustado