monakth/bert-base-multilingual-uncased-finetuned-squadv2
monakth
Pregunta y respuesta
Este modelo ha sido entrenado desde cero en el dataset squad_v2.
Como usar
Este modelo fue entrenado desde cero en el dataset squad_v2.
Hiperparámetros de entrenamiento usados:
- learning_rate: 2e-05
- train_batch_size: 32
- eval_batch_size: 32
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 3
Versiones del marco de trabajo:
- Transformers 4.20.1
- Pytorch 1.11.0
- Datasets 2.1.0
- Tokenizers 0.12.1
Funcionalidades
- Transformers
- PyTorch
Casos de uso
- Responder preguntas