electra_large_discriminator_squad2_512

ahotrod
Pregunta y respuesta

ELECTRA_large_discriminator es un modelo de lenguaje afinado en SQuAD2.0 con resultados sobresalientes en tareas de respuesta a preguntas.

Como usar

python ${EXAMPLES}/run_squad.py \
--model_type electra \
--model_name_or_path google/electra-large-discriminator \
--do_train \
--do_eval \
--train_file ${SQUAD}/train-v2.0.json \
--predict_file ${SQUAD}/dev-v2.0.json \
--version_2_with_negative \
--do_lower_case \
--num_train_epochs 3 \
--warmup_steps 306 \
--weight_decay 0.01 \
--learning_rate 3e-5 \
--max_grad_norm 0.5 \
--adam_epsilon 1e-6 \
--max_seq_length 512 \
--doc_stride 128 \
--per_gpu_train_batch_size 8 \
--gradient_accumulation_steps 16 \
--per_gpu_eval_batch_size 128 \
--fp16 \
--fp16_opt_level O1 \
--threads 12 \
--logging_steps 50 \
--save_steps 1000 \
--overwrite_output_dir \
--output_dir ${MODEL_PATH}

El modelo utiliza las siguientes versiones de software y plataforma:

  • Transformers: 2.11.0
  • PyTorch: 1.5.0
  • TensorFlow: 2.2.0
  • Python: 3.8.1
  • OS/Plataforma: Linux-5.3.0-59-generic-x86_64-with-glibc2.10
  • CPU/GPU: Intel i9-9900K / NVIDIA Titan RTX 24GB

Funcionalidades

Modelo de lenguaje grande
Afinado específicamente en SQuAD2.0
Resultados exactos y F1 elevados
Compatible con Transformers, PyTorch y TensorFlow
Desempeño superior tanto con preguntas con respuesta como sin respuesta

Casos de uso

Respuestas precisas a preguntas basadas en contextos provistos
Aplicaciones en chatbots y sistemas de atención al cliente
Herramientas de búsqueda y recuperación de información