distilbert-base-uncased-finetuned-squad
kamilali
Pregunta y respuesta
Este modelo es una versión afinada de bert-large-uncased-whole-word-masking-finetuned-squad en el dataset None. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1042
Como usar
Más información necesaria
Funcionalidades
- Transformers
- PyTorch
- TensorBoard
- Generado desde Trainer
- Endpoints de Inferencia
Casos de uso
- Más información necesaria