mdeberta_Quran_qa
hemagamal
Pregunta y respuesta
Este modelo es una versión ajustada de timpal0l/mdeberta-v3-base-squad2 en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 3.6248
Como usar
Más información necesaria sobre el uso.
Hiperparámetros de entrenamiento usados:
learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 10
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 10
Resultados de entrenamiento
| Epoch | Step | Validation Loss |
|-------|------|-----------------|
| No log | 1.0 | 89 | 2.2395 |
| No log | 2.0 | 178 | 2.3282 |
| No log | 3.0 | 267 | 2.4226 |
| No log | 4.0 | 356 | 2.6551 |
| No log | 5.0 | 445 | 2.9332 |
| 1.0317 | 6.0 | 534 | 3.2124 |
| 1.0317 | 7.0 | 623 | 3.2915 |
| 1.0317 | 8.0 | 712 | 3.5401 |
| 1.0317 | 9.0 | 801 | 3.6132 |
| 1.0317 | 10.0 | 890 | 3.6248 |
Funcionalidades
- Respuesta a Preguntas
- Transformadores
- PyTorch
- TensorBoard
- deberta-v2
- Generado a partir de Trainer
- Puntos finales de inferencia
Casos de uso
- Responder preguntas basadas en textos del Corán
- Aplicaciones educativas relacionadas con el estudio del Corán