roberta-base_ms-marco_mod

damapika
Pregunta y respuesta

Este modelo es una versión ajustada de roberta-base en el conjunto de datos generator. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 3.5359. Se utilizaron los siguientes hiperparámetros durante el entrenamiento: tasa de aprendizaje de 3e-05, tamaño de lote de 16 para entrenamiento y evaluación, semilla de 42, optimizador Adam con betas=(0.9,0.999) y epsilon=1e-08, tipo de scheduler de tasa de aprendizaje: lineal, y número de épocas: 2. Las versiones del framework utilizadas fueron: Transformers 4.27.4, Pytorch 2.0.0+cu118, Datasets 2.11.0, y Tokenizers 0.13.3.

Como usar

Procedimiento de entrenamiento

Los siguientes hiperparámetros se usaron durante el entrenamiento:
- learning_rate: 3e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- num_epochs: 2

Resultados del entrenamiento

  • Pérdida de entrenamiento
  • Época
  • Paso
  • Pérdida de Validación

| Pérdida | Época | Paso| Pérdida de Validación | | ------- | ----- | -----| ---------------------- | | 3.5498 | 1.0 | 18861 | 3.5603 | | 3.4253 | 2.0 | 37722 | 3.5359 |

Funcionalidades

Pregunta y respuesta
Transformers
PyTorch
TensorBoard
Generado desde Trainer
Compatible con Endpoints
Licencia: MIT

Casos de uso

Responder preguntas de forma automática
Mejorar sistemas de búsqueda con respuestas directas