roberta-academic

asquevedos
Clasificación de texto

Este modelo es una versión afinada de dccuchile/bert-base-spanish-wwm-uncased en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1070, Precisión: 0.9692, F1: 0.9687, Precisión: 0.9692, Recall: 0.9692.

Como usar

Procedimiento de entrenamiento

Los siguientes hiperparámetros se usaron durante el entrenamiento:

  • learning_rate: 5e-05
  • train_batch_size: 34
  • eval_batch_size: 34
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 5

Resultados de entrenamiento

| Epoch | Paso | Pérdida de validación | Precisión | F1 | Precisión | Recall | |-------|------|-----------------------|-----------|----|-----------|-------| | 1.0 | 10831| 0.2892 | 0.9106 |0.9070|0.9137 |0.9106 | | 2.0 | 21662| 0.1880 | 0.9388 |0.9366|0.9415 |0.9388 | | 3.0 | 32493| 0.1437 | 0.9552 |0.9545|0.9560 |0.9552 | | 4.0 | 43324| 0.1152 | 0.9655 |0.9651|0.9658 |0.9655 | | 5.0 | 54155| 0.1070 | 0.9692 |0.9687|0.9692 |0.9692 |

Inference API

El modelo no tiene suficiente actividad para ser desplegado en la API de inferencia (sin servidor) aún. Aumente su visibilidad social y verifique más tarde, o despliegue a Endpoints de inferencia (dedicados) en su lugar.

Funcionalidades

Clasificación de texto
Transformadores
Safetensors
Generado por Trainer
Puntos de inferencia

Casos de uso

Clasificación de texto académico
Análisis de precisión de conjuntos de datos en español
Investigaciones académicas y estudios lingüísticos