bert-base-uncased

hung200504
Pregunta y respuesta

Este modelo es una versión afinada de hung200504/bert-base-uncased en un conjunto de datos desconocido.

Como usar

Hiperparámetros de entrenamiento

learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0

Funcionalidades

Modelos de Transformadores
PyTorch
Generado a partir de Trainer
Puntos de Ingreso de Inferencia

Casos de uso

Respuesta a preguntas
Implementación de puntos de acceso de inferencia dedicados