dougtrajano/toxicity-type-detection
dougtrajano
Clasificación de texto
Detección de Tipos de Toxicidad es un modelo que predice el tipo(s) de toxicidad(es) en un texto dado. Este modelo BERT es una versión afinada de neuralmind/bert-base-portuguese-cased en el conjunto de datos OLID-BR. Las etiquetas de toxicidad incluyen: salud, ideología, insulto, lgbtqfobia, otros estilos de vida, aspectos físicos, obscenidad, racismo, sexismo y xenofobia.
Como usar
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("dougtrajano/toxicity-type-detection")
model = AutoModelForSequenceClassification.from_pretrained("dougtrajano/toxicity-type-detection")
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Safetensors
- Multietiquetado
- Portugués brasileño
Casos de uso
- Detección de varios tipos de toxicidad en textos
- Evaluación de contenido en redes sociales
- Monitoreo de discurso de odio y lenguaje ofensivo