T5_squad_phase_1
HafijulHoquenabid2
Pregunta y respuesta
Este modelo es una versión ajustada de mrm8488/t5-base-finetuned-squadv2 en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.7878. Más información necesaria sobre la descripción del modelo, usos previstos y limitaciones, datos de entrenamiento y evaluación.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
- learning_rate: 3e-05
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 16
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 4
Resultados del entrenamiento:
| Pérdida de entrenamiento | Época | Paso | Pérdida de validación |
|--------------------------|-------|------|-----------------------|
| 2.0888 | 1.0 | 149 | 1.9220 |
| 1.8934 | 2.0 | 298 | 1.8221 |
| 1.7883 | 3.0 | 447 | 1.7938 |
| 1.7165 | 4.0 | 596 | 1.7878 |
Versiones del marco:
- Transformers 4.42.4
- Pytorch 2.4.0+cu121
- Datasets 2.21.0
- Tokenizers 0.19.1
Funcionalidades
- Responder preguntas
- Transformadores
- Safetensors
- t5
- generación de texto a texto
- Generado desde el entrenador
- Inferencia de generación de texto
- Puntos finales de inferencia
- Compatible con AutoTrain
- Compatible con región: EE.UU.
Casos de uso
- Responder preguntas basadas en el contexto dado
- Generación de texto a partir de preguntas
- Aplicaciones de asistencia virtual
- Aplicaciones de educación y tutoría