phobert-qa-finetuned-viet-qa
duyduong9htv
Pregunta y respuesta
Este modelo es una versión ajustada de vinai/phobert-base en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.5288
Como usar
Los siguientes hiperparámetros se usaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 4
Resultados del entrenamiento:
Pérdida de entrenamiento
Época
Paso
Pérdida de validación
1.6004
1.0
2027
1.5128
1.3018
2.0
4054
1.4657
1.1052
3.0
6081
1.4754
0.9502
4.0
8108
1.5288
Versiones de frameworks:
Transformers 4.23.0.dev0
Pytorch 1.12.1+cu113
Datasets 2.5.1
Tokenizers 0.12.1
Funcionalidades
- Pregunta-respuesta
- Transformers
- PyTorch
- TensorBoard
- Safetensors
- roberta
- Generado desde Trainer
- Compatible con Endpoints
- Región: EE. UU.
Casos de uso
- Responder preguntas basadas en contexto
- Aplicaciones de atención al cliente basadas en IA
- Sistemas automatizados de preguntas y respuestas