nb-bert-large-user-needs

thusken
Clasificación de texto

Este modelo es una versión ajustada de NbAiLab/nb-bert-large en un conjunto de datos de 2000 artículos de Bergens Tidende, publicados entre el 01/06/2020 y el 02/02/2020. Estos artículos están etiquetados como una de seis clases/necesidades del usuario, como lo introdujo la BBC en 2017. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.0102, Precisión: 0.8900, F1: 0.8859, Precisión: 0.8883, Recuperación: 0.8900.

Como usar

Hipermetros de entrenamiento

learning_rate: 3e-05
train_batch_size: 8
eval_batch_size: 64
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_steps: 500
num_epochs: 25
mixed_precision_training: Native AMP

Funcionalidades

Clasificación de textos
Transformers
PyTorch
Modelos Safetensors
Noruego
Noruego Bokmål
Noruego Nynorsk
BERT
Generado a partir de Trainer

Casos de uso

Clasificación de textos para identificar las necesidades del usuario
Análisis y etiquetado automático de artículos periodísticos