phobert-qa-finetuned-viet-qa

duyduong9htv
Pregunta y respuesta

Este modelo es una versión ajustada de vinai/phobert-base en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.5288

Como usar

Los siguientes hiperparámetros se usaron durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 4

Resultados del entrenamiento:

Pérdida de entrenamiento
Época
Paso
Pérdida de validación

1.6004
1.0
2027
1.5128

1.3018
2.0
4054
1.4657

1.1052
3.0
6081
1.4754

0.9502
4.0
8108
1.5288

Versiones de frameworks:

Transformers 4.23.0.dev0
Pytorch 1.12.1+cu113
Datasets 2.5.1
Tokenizers 0.12.1

Funcionalidades

Pregunta-respuesta
Transformers
PyTorch
TensorBoard
Safetensors
roberta
Generado desde Trainer
Compatible con Endpoints
Región: EE. UU.

Casos de uso

Responder preguntas basadas en contexto
Aplicaciones de atención al cliente basadas en IA
Sistemas automatizados de preguntas y respuestas