fine_tune_llm
SaiSaketh
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert/distilbert-base-uncased en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 1.6567.
Como usar
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0,999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Resultados del entrenamiento:
Pérdida de entrenamiento | Época | Paso | Pérdida de validación
--- | --- | --- | ---
Sin registro | 1.0 | 250 | 2.3832
2.7626 | 2.0 | 500 | 1.7746
2.7626 | 3.0 | 750 | 1.6567
Versiones de Framework:
- Transformers 4.38.2
- Pytorch 2.2.1+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2
Funcionalidades
- Respuesta a preguntas
- Transformadores
- TensorBoard
- Safetensors
Casos de uso
- Respuesta a preguntas
- Casos de uso que necesitan capacidades de comprensión y generación de lenguaje natural