ub_model
ratno
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert-base-uncased en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.1722.
Como usar
Este modelo se ha entrenado usando los siguientes hiperparámetros:
- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
Resultados del entrenamiento:
- Pérdida de entrenamiento: 2.464 (1.ª época), 2.3544 (6516 pasos)
- Pérdida de validación: 2.2053 (2.ª época), 2.1722 (19548 pasos)
Versiones del framework:
- Transformers: 4.30.1
- Pytorch: 1.13.1+cu116
- Datasets: 2.12.0
- Tokenizers: 0.13.3
El modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad social y verifique más tarde, o despliegue en Endpoints de Inferencia (dedicado) en su lugar.
Funcionalidades
- Fine-tuning de distilbert-base-uncased
- Transformers
- PyTorch
- TensorBoard
Casos de uso
- Responder preguntas
- Uso en puntos finales de inferencia