nb-bert-large-user-needs
thusken
Clasificación de texto
Este modelo es una versión ajustada de NbAiLab/nb-bert-large en un conjunto de datos de 2000 artículos de Bergens Tidende, publicados entre el 01/06/2020 y el 02/02/2020. Estos artículos están etiquetados como una de seis clases/necesidades del usuario, como lo introdujo la BBC en 2017. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.0102, Precisión: 0.8900, F1: 0.8859, Precisión: 0.8883, Recuperación: 0.8900.
Como usar
Hipermetros de entrenamiento
learning_rate: 3e-05
train_batch_size: 8
eval_batch_size: 64
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_steps: 500
num_epochs: 25
mixed_precision_training: Native AMP
Funcionalidades
- Clasificación de textos
- Transformers
- PyTorch
- Modelos Safetensors
- Noruego
- Noruego Bokmål
- Noruego Nynorsk
- BERT
- Generado a partir de Trainer
Casos de uso
- Clasificación de textos para identificar las necesidades del usuario
- Análisis y etiquetado automático de artículos periodísticos