Fine_tuned_on_rephrased_dataset
HafijulHoquenabid2
Pregunta y respuesta
Este modelo es una versión ajustada de google-t5/t5-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.5650.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 3e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4
Resultados de entrenamiento:
Pérdida de entrenamiento:
- Época 1, Paso 113: 2.7262
- Época 2, Paso 226: 2.6150
- Época 3, Paso 339: 2.5750
- Época 4, Paso 452: 2.5650
Versión del framework:
Transformers 4.42.4
Pytorch 2.3.1+cu121
Datasets 2.21.0
Tokenizers 0.19.1
Funcionalidades
- Transformadores
- Safetensors
- t5
- text2text-generación
- Generado desde Trainer
- Inferencia de generación de texto
- Puntos de inferencia
- Licencia: apache-2.0
- Compatible con AutoTrain
- Compatible con puntos de inferencia
- Región: EE.UU.
Casos de uso
- Responder preguntas
- Generación de texto a texto