flan-t5-small-finetuned-squad

TARUNBHATT
Pregunta y respuesta

Este modelo es una versión ajustada de google/flan-t5-small en el conjunto de datos squad_v2. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.4937

Como usar

Hiperparámetros de entrenamiento

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1

Resultados de entrenamiento

Pérdida de entrenamiento
Pérdida de validación
1.6998
1.4937

Versiones del framework

Transformers 4.31.0
Pytorch 2.0.1+cu118
Datasets 2.14.0
Tokenizers 0.13.3

Funcionalidades

Transformers
PyTorch
TensorBoard
T5
Generado desde Trainer
Inferencia de generación de texto
Compatible con puntos finales
Licencia: apache-2.0
Región: US

Casos de uso

Respuestas a preguntas
Generación de texto inferencial