bert-large-cased-whole-word-masking-finetuned-squad

Arup-Dutta-Bappy
Pregunta y respuesta

Este modelo es una versión ajustada de bert-large-cased-whole-word-masking en el conjunto de datos SQuAD.

Como usar

Este modelo carece de la suficiente actividad para ser desplegado en Inference API (sin servidor) aún. Aumenta su visibilidad social y vuelve más tarde, o despliega en Endpoints de inference (dedicados) en su lugar.

Funcionalidades

Transformer
PyTorch
Compatibilidad con TensorBoard

Casos de uso

Respuesta a preguntas