gpt2-large-span-head-finetuned-squad

anas-awadalla
Pregunta y respuesta

Este modelo es una versión ajustada de gpt2-large en el conjunto de datos SQuAD (cuestionario y respuesta).

Como usar

La siguiente configuración de hiperparámetros se utilizó durante el entrenamiento:

learning_rate: 3e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
distributed_type: multi-GPU
num_devices: 2
total_train_batch_size: 16
total_eval_batch_size: 16
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 2.0

Utiliza las siguientes versiones de frameworks:

Transformers 4.20.0.dev0
Pytorch 1.11.0+cu113
Datasets 2.3.2
Tokenizers 0.11.6

Funcionalidades

Ajuste fino en el conjunto de datos SQuAD
Uso de la biblioteca Transformers
Compatibilidad con PyTorch y TensorBoard
Generación de texto y respuesta a preguntas
Compatibilidad con puntos de inferencia

Casos de uso

Responder preguntas basadas en un contexto proporcionado
Generación de texto en español e inglés
Uso en aplicaciones de atención al cliente para responder preguntas frecuentes