allenai/transformer_qa
allenai
Pregunta y respuesta
Un modelo de comprensión lectora inspirado en el modelo propuesto por Devlin et al, con mejoras tomadas del modelo SQuAD en el proyecto transformers. El modelo implementa un modelo de comprensión lectora inspirado en BERT: Pre-entrenamiento de Transformadores Bidireccionales Profundos para la Comprensión del Lenguaje (Devlin et al, 2018), con mejoras tomadas del modelo SQuAD en el proyecto transformers. Predice tokens de inicio y tokens de finalización con una capa lineal sobre incrustaciones de piezas de palabras.
Como usar
Este modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) aún. Aumente su visibilidad social y regrese más tarde, o despliegue en Endpoints de Inferencia (dedicados) en su lugar.
Funcionalidades
- Modelo de comprensión lectora
- Patrón del modelo BERT
- Mejoras del modelo SQuAD
- Predicción de tokens de inicio y finalización
- Capa lineal sobre incrustaciones de piezas de palabras
Casos de uso
- Responder preguntas de comprensión lectora