distilbert-base-uncased-finetuned-squad

lucasresck
Pregunta y respuesta

Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos SQuAD. Fue generado a partir de Trainer y utiliza los Endpoints de Inferencia. El modelo se encuentra bajo la licencia apache-2.0.

Como usar

El modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Se sugiere incrementar su visibilidad social y verificar más tarde, o desplegarlo en Endpoints de Inferencia (dedicado).

## Hiperparámetros de entrenamiento
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 64
- seed: 42
- optimizer: Adam (betas=(0.9, 0.999) y epsilon=1e-08)
- lr_scheduler_type: linear
- num_epochs: 3

## Versiones del framework
- Transformers: 4.11.3
- Pytorch: 1.10.0
- Datasets: 1.15.1
- Tokenizers: 0.10.3

Funcionalidades

Transformers
PyTorch
squad
distilbert
Generado desde Trainer
Endpoints de Inferencia

Casos de uso

Respuesta a preguntas