distilbert-bbc-news-classification
Umesh
Clasificación de texto
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 0.0669 - Precisión: 0.9880 - Puntuación F1: 0.9880 - Recuerdo: 0.9886 - Precisión: 0.9875
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- TensorBoard
- Generado con Trainer
- Puntos de inferencia
Casos de uso
- Clasificación de noticias