Fine_tuned_on_rephrased_dataset

HafijulHoquenabid2
Pregunta y respuesta

Este modelo es una versión ajustada de google-t5/t5-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.5650.

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

- learning_rate: 3e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4

Resultados de entrenamiento:

  • Pérdida de entrenamiento:
    • Época 1, Paso 113: 2.7262
    • Época 2, Paso 226: 2.6150
    • Época 3, Paso 339: 2.5750
    • Época 4, Paso 452: 2.5650

Versión del framework:

  • Transformers 4.42.4
  • Pytorch 2.3.1+cu121
  • Datasets 2.21.0
  • Tokenizers 0.19.1

Funcionalidades

Transformadores
Safetensors
t5
text2text-generación
Generado desde Trainer
Inferencia de generación de texto
Puntos de inferencia
Licencia: apache-2.0
Compatible con AutoTrain
Compatible con puntos de inferencia
Región: EE.UU.

Casos de uso

Responder preguntas
Generación de texto a texto