ub_model

ratno
Pregunta y respuesta

Este modelo es una versión ajustada de distilbert-base-uncased en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.1722.

Como usar

Este modelo se ha entrenado usando los siguientes hiperparámetros:

- learning_rate: 2e-05
- train_batch_size: 16
- eval_batch_size: 16
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3

Resultados del entrenamiento:

- Pérdida de entrenamiento: 2.464 (1.ª época), 2.3544 (6516 pasos)
- Pérdida de validación: 2.2053 (2.ª época), 2.1722 (19548 pasos)

Versiones del framework:

- Transformers: 4.30.1
- Pytorch: 1.13.1+cu116
- Datasets: 2.12.0
- Tokenizers: 0.13.3

El modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad social y verifique más tarde, o despliegue en Endpoints de Inferencia (dedicado) en su lugar.

Funcionalidades

Fine-tuning de distilbert-base-uncased
Transformers
PyTorch
TensorBoard

Casos de uso

Responder preguntas
Uso en puntos finales de inferencia