bert-small-finetuned-squad
anas-awadalla
Pregunta y respuesta
Este modelo es una versión ajustada de prajjwal1/bert-small en el dataset squad. Logra los siguientes resultados en el conjunto de evaluación: pérdida de evaluación: 1.3138, tiempo de evaluación: 46.6577, muestras por segundo de evaluación: 231.13, pasos por segundo de evaluación: 14.446, época: 4.0, paso: 22132. Exactitud: 71.05960264900662, f1: 80.8260245470904.
Como usar
from transformers import BertForQuestionAnswering, BertTokenizer
model_name = 'anas-awadalla/bert-small-finetuned-squad'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForQuestionAnswering.from_pretrained(model_name)
Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumente su visibilidad social y vuelva a intentarlo más tarde, o despliegue a Endpoints de Inferencia (dedicado) en su lugar.
Funcionalidades
- Ajustado en el dataset squad
- Arquitectura de Transformers
- Compatible con PyTorch
- Integración con TensorBoard
- Generado desde Trainer
Casos de uso
- Respuesta a preguntas
- Análisis de texto