my_awesome_model
nruigrok
Clasificación de texto
Este modelo es una versión ajustada de GroNLP/bert-base-dutch-cased en el conjunto de datos None. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4758, F1: 0.9017. Descripción del modelo, más información necesaria.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 48
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 15
mixed_precision_training: Native AMP
Resultados de entrenamiento:
- Pérdida: 0.4758
- F1: 0.9017
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Generado a partir de Trainer
- Puntos de inferencia
Casos de uso
- Clasificación de texto en neerlandés