bert-base-cased-finetuned-qnli
gchhablani
Clasificación de texto
Este modelo es una versión afinada de bert-base-cased en el dataset GLUE QNLI. Se entrenó para comparar google/fnet-base como se introdujo en este documento contra bert-base-cased. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3986, Precisión: 0.9099.
Como usar
Este modelo se entrena utilizando el script run_glue. El siguiente comando fue utilizado:
#!/usr/bin/bash
python ../run_glue.py \n --model_name_or_path bert-base-cased \n --task_name qnli \n --do_train \n --do_eval \n --max_seq_length 512 \n --per_device_train_batch_size 16 \n --learning_rate 2e-5 \n --num_train_epochs 3 \n --output_dir bert-base-cased-finetuned-qnli \n --push_to_hub \n --hub_strategy all_checkpoints \n --logging_strategy epoch \n --save_strategy epoch \n --evaluation_strategy epoch \n```
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
- Generado a partir de Trainer
- Comparación fnet-bert-base
Casos de uso
- Comparación de distintos textos con el fin de determinar si una oración es una pregunta cuya respuesta se encuentra en el otro texto.