tiny-bert-qa

srcocotero
Pregunta y respuesta

Este modelo es una versión afinada de nreimers/BERT-Tiny_L-2_H-128_A-2 en el conjunto de datos squad.

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

learning_rate: 3e-05
train_batch_size: 5
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0

Las versiones del framework utilizadas son:

Transformers 4.21.0
Pytorch 1.12.0+cu113
Datasets 2.4.0
Tokenizers 0.12.1

Infiérelo usando:

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumenta su visibilidad social y vuelve a comprobar más tarde, o despliega a Endpoints de Inferencia (dedicados) en su lugar.

Funcionalidades

Responde preguntas
Transformers
PyTorch
Generado desde Trainer
Puntos de Inferencia

Casos de uso

Sistema de Respuestas a Preguntas
Chatbots
Asistentes Virtuales