herbert-base-cased-finetuned-squad
Aleksandra
Pregunta y respuesta
Este modelo es una versión afinada de allegro/herbert-base-cased en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.2071.
Como usar
Procedimiento de Entrenamiento
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Resultados del Entrenamiento
Pérdida de entrenamiento
Época
Paso
Pérdida de validación
No log
1.0
233
1.2474
No log
2.0
466
1.1951
1.3459
3.0
699
1.2071
Versiones del Framework
Transformers 4.15.0
Pytorch 1.10.0+cu111
Datasets 1.17.0
Tokenizers 0.10.3
Funcionalidades
- Pregunta y Respuesta
- Transformers
- PyTorch
- TensorBoard
- bert
- Generado desde Trainer
- Compatible con Endpoints
- Licencia: cc-by-4.0
Casos de uso
- Respuestas a preguntas
- Generación de respuestas a partir de contexto dado