bert-base-uncased-finetuned-mrpc

ajrae
Clasificación de texto

Este modelo es una versión ajustada de bert-base-uncased en el conjunto de datos glue. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4520, Precisión: 0.8578, F1: 0.9003.

Como usar

Los siguientes hiperparámetros se utilizaron durante el entrenamiento: learning_rate: 2e-05 train_batch_size: 16 eval_batch_size: 16 seed: 42 optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08 lr_scheduler_type: linear num_epochs: 5 Resultados del entrenamiento: Pérdida de entrenamiento Época Paso Pérdida de validación Precisión F1 Sin registro 1.0 230 0.4169 0.8039 0.8639 Sin registro 2.0 460 0.4299 0.8137 0.875 0.4242 3.0 690 0.4520 0.8578 0.9003 0.4242 4.0 920 0.6323 0.8431 0.8926 0.1103 5.0 1150 0.6163 0.8578 0.8997

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard

Casos de uso

Clasificación de textos en el conjunto de datos glue