mrm8488/bert-multi-cased-finetuned-xquad-tydiqa-goldp
mrm8488
Pregunta y respuesta
Un modelo ajustado en la tarea GoldP del conjunto de datos Tydi QA. Este modelo utiliza bert-multi-cased-finetuned-xquadv1 y se ha ajustado en el conjunto de datos Tydi QA para la tarea de Pasaje Dorado (GoldP). El modelo base (bert-multi-cased-finetuned-xquadv1) es una versión ajustada de bert-base-multilingual-cased para la tarea de preguntas y respuestas en el canal descendente.
Como usar
El modelo fue ajustado en una GPU Tesla P100 y 25GB de RAM. El script es el siguiente:
python run_squad.py \
--model_type bert \
--model_name_or_path mrm8488/bert-multi-cased-finetuned-xquadv1 \
--do_train \
--do_eval \
--train_file /content/dataset/train.json \
--predict_file /content/dataset/dev.json \
--per_gpu_train_batch_size 24 \
--per_gpu_eval_batch_size 24 \
--learning_rate 3e-5 \
--num_train_epochs 2.5 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir /content/model_output \
--overwrite_output_dir \
--save_steps 5000 \
--threads 40
Funcionalidades
- Transformers
- PyTorch
- JAX
- Safetensors
- Multilingüe
- Puntos de inferencia
Casos de uso
- Sistemas automáticos de preguntas y respuestas
- Evaluación en el conjunto de datos Tydi QA
- Tareas de Pasaje Dorado (GoldP)