madlag/bert-large-uncased-squadv2

madlag
Pregunta y respuesta

BERT-large ajustado en squad v2. F1 en dev (del artículo) es 81.9, alcanzamos 81.58. Este modelo se utiliza para el análisis de preguntas y respuestas. F1 y otros méritos se pueden encontrar en el artículo original.

Como usar

python run_qa.py \
--model_name_or_path bert-large-uncased \
--dataset_name squad_v2 \
--do_train \
--do_eval \
--save_steps 2500 \
--eval_steps 2500 \
--evaluation_strategy steps \
--per_device_train_batch_size 12 \
--learning_rate 3e-5 \
--num_train_epochs 2 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir bert-large-uncased-squadv2 \
--version_2_with_negative 1

Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumente su visibilidad social y vuelva a consultar más tarde, o despliegue a Endpoints de Inferencia (dedicado) en su lugar.

Funcionalidades

Análisis de preguntas y respuestas
Implementación con Transformers
Compatible con PyTorch y JAX
Endpoints de inferencia

Casos de uso

Responder preguntas de texto
Análisis de documentos
Asistente virtual