bert-base-cased-finetuned-cola
gchhablani
Clasificación de texto
Este modelo es una versión afinada de bert-base-cased en el conjunto de datos GLUE COLA. Fue afinado para comparar google/fnet-base, como se introdujo en este artículo, contra bert-base-cased. El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.6747, Correlación de Matthews: 0.5957.
Como usar
Este modelo está entrenado utilizando el script run_glue. Se usó el siguiente comando:
#!/usr/bin/bash
python ../run_glue.py \
--model_name_or_path bert-base-cased \
--task_name cola \
--do_train \
--do_eval \
--max_seq_length 512 \
--per_device_train_batch_size 16 \
--learning_rate 2e-5 \
--num_train_epochs 3 \
--output_dir bert-base-cased-finetuned-cola \
--push_to_hub \
--hub_strategy all_checkpoints \
--logging_strategy epoch \
--save_strategy epoch \
--evaluation_strategy epoch
Funcionalidades
- Clasificación de Texto
- Transformadores
- Compatibilidad con PyTorch
- Compatibilidad con TensorBoard
Casos de uso
- Clasificación de la aceptabilidad lingüística