QA_FineTuned_ArabianGpt-01B
gp-tar4
Pregunta y respuesta
Este modelo es una versión afinada de riotu-lab/ArabianGPT-01B en un conjunto de datos arcd (conjunto de datos en árabe). Logra los siguientes resultados en el conjunto de evaluación: Pérdida (Loss): 3.0808.
Como usar
Los siguientes hiperparámetros fueron usados durante el entrenamiento:
learning_rate: 0.0003
train_batch_size: 8
eval_batch_size: 8
seed: 42
gradient_accumulation_steps: 4
total_train_batch_size: 32
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: cosine
num_epochs: 3
Funcionalidades
- Modelo afinado para la respuesta a preguntas
- Basado en el modelo ArabianGPT-01B
- Utiliza transformadores y safetensors
Casos de uso
- Responder preguntas basadas en contexto dado
- Generación de respuestas en árabe
- Evaluación del conocimiento en un conjunto de datos en árabe