bert-large-cased-whole-word-masking-finetuned-squad
Arup-Dutta-Bappy
Pregunta y respuesta
Este modelo es una versión ajustada de bert-large-cased-whole-word-masking en el conjunto de datos SQuAD.
Como usar
Este modelo carece de la suficiente actividad para ser desplegado en Inference API (sin servidor) aún. Aumenta su visibilidad social y vuelve más tarde, o despliega en Endpoints de inference (dedicados) en su lugar.
Funcionalidades
- Transformer
- PyTorch
- Compatibilidad con TensorBoard
Casos de uso
- Respuesta a preguntas