citizenlab/distilbert-base-multilingual-cased-toxicity
citizenlab
Clasificación de texto
Este es un modelo secuencial multilingüe de Distil-Bert entrenado basado en el conjunto de datos del Desafío de Clasificación de Comentarios Tóxicos de JIGSAW.
Como usar
from transformers import pipeline
model_path = "citizenlab/distilbert-base-multilingual-cased-toxicity"
toxicity_classifier = pipeline("text-classification", model=model_path, tokenizer=model_path)
toxicity_classifier("esto es un mensaje encantador")
> [{'label': 'not_toxic', 'score': 0.9954179525375366}]
toxicity_classifier("eres un idiota y tú y tu familia deberían volver a tu país")
> [{'label': 'toxic', 'score': 0.9948776960372925}]
Funcionalidades
- Clasificación de textos
- Transformers
- PyTorch
- Predicción de toxicidad
Casos de uso
- Clasificación de comentarios tóxicos
- Moderación de contenido en línea
- Monitoreo de discurso de odio