monakth/bert-base-multilingual-uncased-finetuned-squadv2

monakth
Pregunta y respuesta

Este modelo ha sido entrenado desde cero en el dataset squad_v2.

Como usar

Este modelo fue entrenado desde cero en el dataset squad_v2.

Hiperparámetros de entrenamiento usados:

  • learning_rate: 2e-05
  • train_batch_size: 32
  • eval_batch_size: 32
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 3

Versiones del marco de trabajo:

  • Transformers 4.20.1
  • Pytorch 1.11.0
  • Datasets 2.1.0
  • Tokenizers 0.12.1

Funcionalidades

Transformers
PyTorch

Casos de uso

Responder preguntas