xlm-r-large-arabic-toxic

akhooli
Clasificación de texto

Clasificación de mensajes tóxicos (etiqueta_0: no tóxico, etiqueta_1: tóxico) en comentarios en árabe mediante el ajuste fino de XLM-Roberta-Large. Clasificación cero en otros idiomas (también funciona en idiomas mixtos, por ejemplo, árabe e inglés). Uso e información adicional: consulte la última sección de este cuaderno de Colab.

Como usar

Para usar este modelo, consulte la última sección en este cuaderno de Colab:

Zero shot classification of other languages (also works in mixed languages - ex. Arabic & English). Usage and further info: see last section in this Colab notebook

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Compatibilidad con AutoTrain
Compatibilidad con Endpoints
Licencia: MIT

Casos de uso

Clasificación de discursos de odio en redes sociales
Monitoreo de la toxicidad en comentarios online
Filtrado de contenido inapropiado en plataformas digitales