tiny-bert-qa
srcocotero
Pregunta y respuesta
Este modelo es una versión afinada de nreimers/BERT-Tiny_L-2_H-128_A-2 en el conjunto de datos squad.
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 3e-05
train_batch_size: 5
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0
Las versiones del framework utilizadas son:
Transformers 4.21.0
Pytorch 1.12.0+cu113
Datasets 2.4.0
Tokenizers 0.12.1
Infiérelo usando:
Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumenta su visibilidad social y vuelve a comprobar más tarde, o despliega a Endpoints de Inferencia (dedicados) en su lugar.
Funcionalidades
- Responde preguntas
- Transformers
- PyTorch
- Generado desde Trainer
- Puntos de Inferencia
Casos de uso
- Sistema de Respuestas a Preguntas
- Chatbots
- Asistentes Virtuales