roberta-base-finetuned-squad-v3

ozgurkk
Pregunta y respuesta

Este modelo es una versión ajustada de ozgurkk/roberta-base-finetuned-squad-v2 en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.9624

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
gradient_accumulation_steps: 4
total_train_batch_size: 64
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_ratio: 0.1
num_epochs: 1
mixed_precision_training: Native AMP

Funcionalidades

Transformers
Safetensors
Roberta
Generado desde entrenador
Compatible con puntos finales
Licencia: MIT
Regiõn: US

Casos de uso

Respuesta a preguntas
Generado desde entrenador
Compatible con puntos finales