roberta-base_ms-marco_mod
Este modelo es una versión ajustada de roberta-base en el conjunto de datos generator. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 3.5359. Se utilizaron los siguientes hiperparámetros durante el entrenamiento: tasa de aprendizaje de 3e-05, tamaño de lote de 16 para entrenamiento y evaluación, semilla de 42, optimizador Adam con betas=(0.9,0.999) y epsilon=1e-08, tipo de scheduler de tasa de aprendizaje: lineal, y número de épocas: 2. Las versiones del framework utilizadas fueron: Transformers 4.27.4, Pytorch 2.0.0+cu118, Datasets 2.11.0, y Tokenizers 0.13.3.
Como usar
Procedimiento de entrenamiento
Los siguientes hiperparámetros se usaron durante el entrenamiento:
- learning_rate: 3e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- num_epochs: 2
Resultados del entrenamiento
- Pérdida de entrenamiento
- Época
- Paso
- Pérdida de Validación
| Pérdida | Época | Paso| Pérdida de Validación |
| ------- | ----- | -----| ---------------------- |
| 3.5498 | 1.0 | 18861 | 3.5603 |
| 3.4253 | 2.0 | 37722 | 3.5359 |
Funcionalidades
- Pregunta y respuesta
- Transformers
- PyTorch
- TensorBoard
- Generado desde Trainer
- Compatible con Endpoints
- Licencia: MIT
Casos de uso
- Responder preguntas de forma automática
- Mejorar sistemas de búsqueda con respuestas directas