bert-base-cased-finetuned-qnli

gchhablani
Clasificación de texto

Este modelo es una versión afinada de bert-base-cased en el dataset GLUE QNLI. Se entrenó para comparar google/fnet-base como se introdujo en este documento contra bert-base-cased. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.3986, Precisión: 0.9099.

Como usar

Este modelo se entrena utilizando el script run_glue. El siguiente comando fue utilizado:

#!/usr/bin/bash

python ../run_glue.py \n --model_name_or_path bert-base-cased \n --task_name qnli \n --do_train \n --do_eval \n --max_seq_length 512 \n --per_device_train_batch_size 16 \n --learning_rate 2e-5 \n --num_train_epochs 3 \n --output_dir bert-base-cased-finetuned-qnli \n --push_to_hub \n --hub_strategy all_checkpoints \n --logging_strategy epoch \n --save_strategy epoch \n --evaluation_strategy epoch \n```

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard
Generado a partir de Trainer
Comparación fnet-bert-base

Casos de uso

Comparación de distintos textos con el fin de determinar si una oración es una pregunta cuya respuesta se encuentra en el otro texto.