twmkn9/distilroberta-base-squad2
twmkn9
Pregunta y respuesta
Este modelo es Distilroberta base entrenado en SQuAD v2. Este modelo está diseñado para responder preguntas tomando contexto de documentos. El modelo se basa en la arquitectura de Transformers y utiliza específicamente la variante Roberta.
Como usar
Cómo usar el modelo
export SQUAD_DIR=../../squad2
python3 run_squad.py \
--model_type roberta \
--model_name_or_path distilroberta-base \
--do_train \
--do_eval \
--overwrite_cache \
--do_lower_case \
--version_2_with_negative \
--save_steps 100000 \
--train_file $SQUAD_DIR/train-v2.0.json \
--predict_file $SQUAD_DIR/dev-v2.0.json \
--per_gpu_train_batch_size 8 \
--num_train_epochs 3 \
--learning_rate 3e-5 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./tmp/distilroberta_fine_tuned/
Funcionalidades
- Transformadores
- PyTorch
- JAX
- Roberta
- Answerados de Preguntas
- Compatible con Endpoints
- Región: US
Casos de uso
- Respuestas a preguntas
- Implementación en endpoints de inferencia
- Análisis basado en el contexto proporcionado