bert-base-cased-finetuned-sst2

gchhablani
Clasificación de texto

Este modelo es una versión ajustada de bert-base-cased en el conjunto de datos GLUE SST2. Fue afinado para comparar google/fnet-base como se introduce en este artículo frente a bert-base-cased. El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3649, Precisión: 0.9232. Se entrenó usando el script run_glue.

Como usar

python ../run_glue.py \
  --model_name_or_path bert-base-cased \
  --task_name sst2 \
  --do_train \
  --do_eval \
  --max_seq_length 512 \
  --per_device_train_batch_size 16 \
  --learning_rate 2e-5 \
  --num_train_epochs 3 \
  --output_dir bert-base-cased-finetuned-sst2 \
  --push_to_hub \
  --hub_strategy all_checkpoints \
  --logging_strategy epoch \
  --save_strategy epoch \
  --evaluation_strategy epoch

Hyperparámetros de entrenamiento

Los siguientes hiperparámetros se usaron durante el entrenamiento:

  • learning_rate: 2e-05
  • train_batch_size: 16
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 3.0

Resultados de entrenamiento

| Pérdida de entrenamiento | Época | Paso | Precisión | Pérdida de validación | |:------------------------:|:-----:|:-----:|:---------:|:---------------------:| | 0.233 | 1.0 | 4210 | 0.9174 | 0.2841 | | 0.1261 | 2.0 | 8420 | 0.9278 | 0.3310 | | 0.0768 | 3.0 | 12630 | 0.9232 | 0.3649 |

Versiones del framework

  • Transformers 4.11.0.dev0
  • Pytorch 1.9.0
  • Datasets 1.12.1
  • Tokenizers 0.10.3

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard

Casos de uso

Clasificación de sentimientos en texto