bert-base-uncased-finetuned-mrpc
ajrae
Clasificación de texto
Este modelo es una versión ajustada de bert-base-uncased en el conjunto de datos glue. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4520, Precisión: 0.8578, F1: 0.9003.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento: learning_rate: 2e-05 train_batch_size: 16 eval_batch_size: 16 seed: 42 optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08 lr_scheduler_type: linear num_epochs: 5 Resultados del entrenamiento: Pérdida de entrenamiento Época Paso Pérdida de validación Precisión F1 Sin registro 1.0 230 0.4169 0.8039 0.8639 Sin registro 2.0 460 0.4299 0.8137 0.875 0.4242 3.0 690 0.4520 0.8578 0.9003 0.4242 4.0 920 0.6323 0.8431 0.8926 0.1103 5.0 1150 0.6163 0.8578 0.8997
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Clasificación de textos en el conjunto de datos glue