Persian-QA-Bert-V1
SeyedAli
Pregunta y respuesta
Este modelo es una versión ajustada de HooshvareLab/bert-fa-base-uncased en el conjunto de datos SeyedAli/Persian-Text-QA. Este modelo se utiliza principalmente para responder preguntas en persa. El rendimiento del modelo en el conjunto de evaluación tiene una pérdida de 5.0331.
Como usar
Parámetros de entrenamiento
- learning_rate: 3e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 10
Resultados del entrenamiento
- Pérdida Entrenamiento
- Epoch
- Paso
- Pérdida de Validación
{
"2.3247": "1.0",
"1126": "1.7615",
"1.4445": "2.0",
"2252": "1.8002",
"0.7653": "3.0",
"3378": "2.0806",
"0.4247": "4.0",
"4504": "2.6624",
"0.2502": "5.0",
"5630": "3.2961",
"0.168": "6.0",
"6756": "3.7767",
"0.0809": "7.0",
"7882": "4.3288",
"0.0544": "8.0",
"9008": "4.8516",
"0.0398": "9.0",
"10134": "4.9091",
"0.0102": "10.0",
"11260": "5.0331"
}
Versiones del Framework
- Transformers 4.33.1
- Pytorch 2.0.1+cu118
- Datasets 2.14.5
- Tokenizers 0.13.3
Funcionalidades
- Ajustado a partir del modelo HooshvareLab/bert-fa-base-uncased
- Optimizado para responder preguntas en persa
- Basado en Transformers y PyTorch
- Utiliza Safetensors
Casos de uso
- Responder preguntas en persa
- Aplicaciones en chatbots que requieren procesamiento del lenguaje natural en persa