xlm-r-large-arabic-toxic
akhooli
Clasificación de texto
Clasificación de mensajes tóxicos (etiqueta_0: no tóxico, etiqueta_1: tóxico) en comentarios en árabe mediante el ajuste fino de XLM-Roberta-Large. Clasificación cero en otros idiomas (también funciona en idiomas mixtos, por ejemplo, árabe e inglés). Uso e información adicional: consulte la última sección de este cuaderno de Colab.
Como usar
Para usar este modelo, consulte la última sección en este cuaderno de Colab:
Zero shot classification of other languages (also works in mixed languages - ex. Arabic & English). Usage and further info: see last section in this Colab notebook
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints
- Licencia: MIT
Casos de uso
- Clasificación de discursos de odio en redes sociales
- Monitoreo de la toxicidad en comentarios online
- Filtrado de contenido inapropiado en plataformas digitales