roberta-academic
Este modelo es una versión afinada de dccuchile/bert-base-spanish-wwm-uncased en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1070, Precisión: 0.9692, F1: 0.9687, Precisión: 0.9692, Recall: 0.9692.
Como usar
Procedimiento de entrenamiento
Los siguientes hiperparámetros se usaron durante el entrenamiento:
- learning_rate: 5e-05
- train_batch_size: 34
- eval_batch_size: 34
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 5
Resultados de entrenamiento
| Epoch | Paso | Pérdida de validación | Precisión | F1 | Precisión | Recall |
|-------|------|-----------------------|-----------|----|-----------|-------|
| 1.0 | 10831| 0.2892 | 0.9106 |0.9070|0.9137 |0.9106 |
| 2.0 | 21662| 0.1880 | 0.9388 |0.9366|0.9415 |0.9388 |
| 3.0 | 32493| 0.1437 | 0.9552 |0.9545|0.9560 |0.9552 |
| 4.0 | 43324| 0.1152 | 0.9655 |0.9651|0.9658 |0.9655 |
| 5.0 | 54155| 0.1070 | 0.9692 |0.9687|0.9692 |0.9692 |
Inference API
El modelo no tiene suficiente actividad para ser desplegado en la API de inferencia (sin servidor) aún. Aumente su visibilidad social y verifique más tarde, o despliegue a Endpoints de inferencia (dedicados) en su lugar.
Funcionalidades
- Clasificación de texto
- Transformadores
- Safetensors
- Generado por Trainer
- Puntos de inferencia
Casos de uso
- Clasificación de texto académico
- Análisis de precisión de conjuntos de datos en español
- Investigaciones académicas y estudios lingüísticos