T5_squad_phase_1

HafijulHoquenabid2
Pregunta y respuesta

Este modelo es una versión ajustada de mrm8488/t5-base-finetuned-squadv2 en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.7878. Más información necesaria sobre la descripción del modelo, usos previstos y limitaciones, datos de entrenamiento y evaluación.

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

- learning_rate: 3e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4

Resultados del entrenamiento:

| Pérdida de entrenamiento | Época | Paso | Pérdida de validación |
|--------------------------|-------|------|-----------------------|
| 2.0888                   | 1.0   | 149  | 1.9220                |
| 1.8934                   | 2.0   | 298  | 1.8221                |
| 1.7883                   | 3.0   | 447  | 1.7938                |
| 1.7165                   | 4.0   | 596  | 1.7878                |

Versiones del marco:

- Transformers 4.42.4
- Pytorch 2.4.0+cu121
- Datasets 2.21.0
- Tokenizers 0.19.1

Funcionalidades

Responder preguntas
Transformadores
Safetensors
t5
generación de texto a texto
Generado desde el entrenador
Inferencia de generación de texto
Puntos finales de inferencia
Compatible con AutoTrain
Compatible con región: EE.UU.

Casos de uso

Responder preguntas basadas en el contexto dado
Generación de texto a partir de preguntas
Aplicaciones de asistencia virtual
Aplicaciones de educación y tutoría