ArabicDistilBERT_QA
arabi-elidrisi
Pregunta y respuesta
ArabicDistilBERT_QA es un modelo de transformación para la respuesta a preguntas en árabe. Este modelo ha sido entrenado utilizando varios conjuntos de datos, incluyendo ZeyadAhmed/Arabic-SQuADv2.0, oscar-corpus/OSCAR-2201 y artículos de Wikipedia en árabe. El modelo aplica la técnica de destilación de conocimiento para crear una versión más ligera del modelo BERT, manteniendo un rendimiento aceptable en tareas de respuesta a preguntas.
Como usar
Para utilizar este modelo, puede emplearse la API de Inferencia de Hugging Face o desplegarse en puntos finales de inferencia dedicados. Todavía no tiene suficiente actividad para ser desplegado en la API de Inferencia sin servidor.
Funcionalidades
- Responde preguntas en árabe
- Basado en la arquitectura de Transformer
- Entrenado con varios conjuntos de datos
- Utiliza técnica de destilación de conocimiento
- Optimizado para ser más ligero que el modelo BERT completo
Casos de uso
- Responder preguntas en árabe
- Aplicaciones de asistencia virtual en árabe
- Sistemas de búsqueda y recuperación de información en árabe
- Automatización de servicio al cliente en árabe