GISchat-weibo-100k-fine-tuned-bert
wsqstar
Clasificación de texto
Este modelo es una versión afinada de bert-base-chinese en el conjunto de datos weibo-100k. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0458, Precisión: 0.9867.
Como usar
Este modelo es un versión afinada de bert-base-chinese en el conjunto de datos weibo-100k.
Repositorio de Github: https://github.com/GISChat/Fine-tune-bert
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 1e-05
train_batch_size: 8
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
lr_scheduler_warmup_steps: 500
num_epochs: 1
Resultados del entrenamiento:
Pérdida en el entrenamiento
Época
Paso
Pérdida en la validación
Precisión
No hay registro
0.08
100
0.6573
0.606
0.647
0.16
200
0.2447
0.9507
0.647
0.24
300
0.0914
0.9807
0.1276
0.32
400
0.0609
0.9843
0.1276
0.4
500
0.0607
0.9843
0.0921
0.48
600
0.1053
0.98
0.0921
0.56
700
0.0487
0.9853
0.0885
0.64
800
0.0523
0.9853
0.0885
0.72
900
0.0484
0.986
0.0579
0.8
1000
0.0549
0.985
0.0579
0.88
1100
0.0495
0.9867
0.0507
0.96
1200
0.0458
0.9867
Funcionalidades
- Clasificación de texto
- Transformers
- safetensors
Casos de uso
- Clasificación de texto en chino
- Análisis de sentimientos en publicaciones de Weibo