distilbert-base-uncased-squad2
twmkn9
Pregunta y respuesta
Este modelo es una versión de Distilbert base uncased entrenada en SQuAD v2. Su rendimiento en un subconjunto de desarrollo está cerca del paper original. Esperamos que este modelo pueda ahorrarle tiempo, energía y computo.
Como usar
export SQUAD_DIR=../../squad2
python3 run_squad.py \
--model_type distilbert \
--model_name_or_path distilbert-base-uncased \
--do_train \
--do_eval \
--overwrite_cache \
--do_lower_case \
--version_2_with_negative \
--save_steps 100000 \
--train_file $SQUAD_DIR/train-v2.0.json \
--predict_file $SQUAD_DIR/dev-v2.0.json \
--per_gpu_train_batch_size 8 \
--num_train_epochs 3 \
--learning_rate 3e-5 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./tmp/distilbert_fine_tuned/
Funcionalidades
- Transformers
- PyTorch
- Distilbert
- Puntos finales de inferencia
- Entrenado en SQuAD v2
Casos de uso
- Respuesta a preguntas