distilbert-base-uncased-finetuned-squad

kamilali
Pregunta y respuesta

Este modelo es una versión afinada de bert-large-uncased-whole-word-masking-finetuned-squad en el dataset None. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1042

Como usar

Más información necesaria

Funcionalidades

Transformers
PyTorch
TensorBoard
Generado desde Trainer
Endpoints de Inferencia

Casos de uso

Más información necesaria