allenai/transformer_qa

allenai
Pregunta y respuesta

Un modelo de comprensión lectora inspirado en el modelo propuesto por Devlin et al, con mejoras tomadas del modelo SQuAD en el proyecto transformers. El modelo implementa un modelo de comprensión lectora inspirado en BERT: Pre-entrenamiento de Transformadores Bidireccionales Profundos para la Comprensión del Lenguaje (Devlin et al, 2018), con mejoras tomadas del modelo SQuAD en el proyecto transformers. Predice tokens de inicio y tokens de finalización con una capa lineal sobre incrustaciones de piezas de palabras.

Como usar

Este modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) aún. Aumente su visibilidad social y regrese más tarde, o despliegue en Endpoints de Inferencia (dedicados) en su lugar.

Funcionalidades

Modelo de comprensión lectora
Patrón del modelo BERT
Mejoras del modelo SQuAD
Predicción de tokens de inicio y finalización
Capa lineal sobre incrustaciones de piezas de palabras

Casos de uso

Responder preguntas de comprensión lectora