dougtrajano/toxicity-type-detection

dougtrajano
Clasificación de texto

Detección de Tipos de Toxicidad es un modelo que predice el tipo(s) de toxicidad(es) en un texto dado. Este modelo BERT es una versión afinada de neuralmind/bert-base-portuguese-cased en el conjunto de datos OLID-BR. Las etiquetas de toxicidad incluyen: salud, ideología, insulto, lgbtqfobia, otros estilos de vida, aspectos físicos, obscenidad, racismo, sexismo y xenofobia.

Como usar

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("dougtrajano/toxicity-type-detection")

model = AutoModelForSequenceClassification.from_pretrained("dougtrajano/toxicity-type-detection")

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Safetensors
Multietiquetado
Portugués brasileño

Casos de uso

Detección de varios tipos de toxicidad en textos
Evaluación de contenido en redes sociales
Monitoreo de discurso de odio y lenguaje ofensivo