gpt2-span-head-few-shot-k-16-finetuned-squad-seed-0
anas-awadalla
Pregunta y respuesta
Este modelo es una versión ajustada de gpt2 en el conjunto de datos squad.
Como usar
Procedimiento de Entrenamiento
Hiperparámetros de entrenamiento utilizados:
learning_rate: 3e-05
train_batch_size: 12
eval_batch_size: 8
seed: 0
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
training_steps: 200
Versiones de framework:
Transformers 4.20.0.dev0
Pytorch 1.11.0+cu113
Datasets 2.3.2
Tokenizers 0.11.6
Funcionalidades
- AutoModelForQuestionAnswering
- AutoTokenizer
- lgpt2
- Entrenamiento pocos disparos
- Generación de texto
- Transformers
- PyTorch
- TensorBoard
- Compatibilidad con puntos finales de inferencia
- MIT License
Casos de uso
- Respuesta a preguntas
- Generación de texto
- Aplicaciones de atención al cliente
- Interfaces conversacionales