roberta-base-finetuned-squad8000

HASAN55
Pregunta y respuesta

Este modelo es una versión ajustada de roberta-base en el conjunto de datos SQuAD. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.8537

Como usar

Parámetros de entrenamiento

Los siguientes hiperparámetros fueron usados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3

Resultados del entrenamiento

Pérdida de entrenamiento

| Época | Paso | Pérdida de Validación | |-------|------|-----------------------| | 0.8461 | 1.0 | 6063 | 0.8284 | | 0.6586 | 2.0 | 12126 | 0.8036 | | 0.5178 | 3.0 | 18189 | 0.8537 |

Versiones del marco

  • Transformers: 4.28.1
  • Pytorch: 2.0.0+cu118
  • Datasets: 2.11.0
  • Tokenizers: 0.13.3

Funcionalidades

Transformers
PyTorch
TensorBoard
Roberta
Respuesta a preguntas
Generado desde Entrenador
Compatible con puntos de inferencia
Licencia MIT
Región: EE.UU.

Casos de uso

Respuesta a preguntas