twmkn9/distilroberta-base-squad2

twmkn9
Pregunta y respuesta

Este modelo es Distilroberta base entrenado en SQuAD v2. Este modelo está diseñado para responder preguntas tomando contexto de documentos. El modelo se basa en la arquitectura de Transformers y utiliza específicamente la variante Roberta.

Como usar

Cómo usar el modelo

export SQUAD_DIR=../../squad2
python3 run_squad.py \
--model_type roberta \
--model_name_or_path distilroberta-base \
--do_train \
--do_eval \
--overwrite_cache \
--do_lower_case \
--version_2_with_negative \
--save_steps 100000 \
--train_file $SQUAD_DIR/train-v2.0.json \
--predict_file $SQUAD_DIR/dev-v2.0.json \
--per_gpu_train_batch_size 8 \
--num_train_epochs 3 \
--learning_rate 3e-5 \
--max_seq_length 384 \
--doc_stride 128 \
--output_dir ./tmp/distilroberta_fine_tuned/

Funcionalidades

Transformadores
PyTorch
JAX
Roberta
Answerados de Preguntas
Compatible con Endpoints
Región: US

Casos de uso

Respuestas a preguntas
Implementación en endpoints de inferencia
Análisis basado en el contexto proporcionado