herbert-base-cased-finetuned-squad

Aleksandra
Pregunta y respuesta

Este modelo es una versión afinada de allegro/herbert-base-cased en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2071.

Como usar

Procedimiento de Entrenamiento

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3

Resultados del Entrenamiento

Pérdida de entrenamiento
Época
Paso
Pérdida de validación

No log
1.0
233
1.2474

No log
2.0
466
1.1951

1.3459
3.0
699
1.2071

Versiones del Framework

Transformers 4.15.0
Pytorch 1.10.0+cu111
Datasets 1.17.0
Tokenizers 0.10.3

Funcionalidades

Pregunta y Respuesta
Transformers
PyTorch
TensorBoard
bert
Generado desde Trainer
Compatible con Endpoints
Licencia: cc-by-4.0

Casos de uso

Respuestas a preguntas
Generación de respuestas a partir de contexto dado