bert-small-finetuned-squad

anas-awadalla
Pregunta y respuesta

Este modelo es una versión ajustada de prajjwal1/bert-small en el dataset squad. Logra los siguientes resultados en el conjunto de evaluación: pérdida de evaluación: 1.3138, tiempo de evaluación: 46.6577, muestras por segundo de evaluación: 231.13, pasos por segundo de evaluación: 14.446, época: 4.0, paso: 22132. Exactitud: 71.05960264900662, f1: 80.8260245470904.

Como usar

from transformers import BertForQuestionAnswering, BertTokenizer
model_name = 'anas-awadalla/bert-small-finetuned-squad'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForQuestionAnswering.from_pretrained(model_name)

Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumente su visibilidad social y vuelva a intentarlo más tarde, o despliegue a Endpoints de Inferencia (dedicado) en su lugar.

Funcionalidades

Ajustado en el dataset squad
Arquitectura de Transformers
Compatible con PyTorch
Integración con TensorBoard
Generado desde Trainer

Casos de uso

Respuesta a preguntas
Análisis de texto