citizenlab/distilbert-base-multilingual-cased-toxicity

citizenlab
Clasificación de texto

Este es un modelo secuencial multilingüe de Distil-Bert entrenado basado en el conjunto de datos del Desafío de Clasificación de Comentarios Tóxicos de JIGSAW.

Como usar

from transformers import pipeline

model_path = "citizenlab/distilbert-base-multilingual-cased-toxicity"

toxicity_classifier = pipeline("text-classification", model=model_path, tokenizer=model_path)
toxicity_classifier("esto es un mensaje encantador")
> [{'label': 'not_toxic', 'score': 0.9954179525375366}]

toxicity_classifier("eres un idiota y tú y tu familia deberían volver a tu país")
> [{'label': 'toxic', 'score': 0.9948776960372925}]

Funcionalidades

Clasificación de textos
Transformers
PyTorch
Predicción de toxicidad

Casos de uso

Clasificación de comentarios tóxicos
Moderación de contenido en línea
Monitoreo de discurso de odio