roberta-base-finetuned-squad-v3
ozgurkk
Pregunta y respuesta
Este modelo es una versión ajustada de ozgurkk/roberta-base-finetuned-squad-v2 en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.9624
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
gradient_accumulation_steps: 4
total_train_batch_size: 64
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
num_epochs: 1
mixed_precision_training: Native AMP
Funcionalidades
- Transformers
- Safetensors
- Roberta
- Generado desde entrenador
- Compatible con puntos finales
- Licencia: MIT
- Regiõn: US
Casos de uso
- Respuesta a preguntas
- Generado desde entrenador
- Compatible con puntos finales