distilbert-base-uncased-finetuned-squad
lucasresck
Pregunta y respuesta
Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos SQuAD. Fue generado a partir de Trainer y utiliza los Endpoints de Inferencia. El modelo se encuentra bajo la licencia apache-2.0.
Como usar
El modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Se sugiere incrementar su visibilidad social y verificar más tarde, o desplegarlo en Endpoints de Inferencia (dedicado).
## Hiperparámetros de entrenamiento
- learning_rate: 2e-05
- train_batch_size: 64
- eval_batch_size: 64
- seed: 42
- optimizer: Adam (betas=(0.9, 0.999) y epsilon=1e-08)
- lr_scheduler_type: linear
- num_epochs: 3
## Versiones del framework
- Transformers: 4.11.3
- Pytorch: 1.10.0
- Datasets: 1.15.1
- Tokenizers: 0.10.3
Funcionalidades
- Transformers
- PyTorch
- squad
- distilbert
- Generado desde Trainer
- Endpoints de Inferencia
Casos de uso
- Respuesta a preguntas