gpt2-span-head-few-shot-k-16-finetuned-squad-seed-0

anas-awadalla
Pregunta y respuesta

Este modelo es una versión ajustada de gpt2 en el conjunto de datos squad.

Como usar

Procedimiento de Entrenamiento

Hiperparámetros de entrenamiento utilizados:

learning_rate: 3e-05
train_batch_size: 12
eval_batch_size: 8
seed: 0
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 200

Versiones de framework:

Transformers 4.20.0.dev0
Pytorch 1.11.0+cu113
Datasets 2.3.2
Tokenizers 0.11.6

Funcionalidades

AutoModelForQuestionAnswering
AutoTokenizer
lgpt2
Entrenamiento pocos disparos
Generación de texto
Transformers
PyTorch
TensorBoard
Compatibilidad con puntos finales de inferencia
MIT License

Casos de uso

Respuesta a preguntas
Generación de texto
Aplicaciones de atención al cliente
Interfaces conversacionales