Falconsai/offensive_speech_detection

Falconsai
Clasificación de texto

DistilBERT afinado es una variante del modelo transformer BERT, destilado para un rendimiento eficiente manteniendo una alta precisión. Ha sido adaptado y afinado para la tarea específica de detección de discurso ofensivo/odio en datos textuales. El modelo, llamado 'distilbert-base-uncased', está preentrenado en una cantidad sustancial de datos de texto, lo que le permite capturar matices semánticos e información contextual presente en el texto en lenguaje natural. Ha sido afinado con meticulosa atención a la configuración de hiperparámetros, incluido el tamaño de lote y la tasa de aprendizaje, para garantizar un rendimiento óptimo del modelo para la tarea de detección de discurso ofensivo/odio. Durante el proceso de afinamiento, se eligió un tamaño de lote de 16 para una computación y aprendizaje eficientes. Además, se seleccionó una tasa de aprendizaje (2e-5) para lograr un equilibrio entre una convergencia rápida y una optimización constante, asegurando que el modelo no solo aprenda rápidamente sino que también refine constantemente sus capacidades a lo largo del entrenamiento.

Como usar

Para usar este modelo para la detección de discurso ofensivo/odio, puedes seguir estos pasos:

from transformers import pipeline

classifier = pipeline("text-classification", model="Falconsai/offensive_speech_detection")
text = "Tu texto para clasificar aquí."
result = classifier(text)

Funcionalidades

Detecta discurso ofensivo/odio
Preentrenado en una gran cantidad de datos textuales
Afinado con configuraciones específicas de hiperparámetros
Tasa de aprendizaje equilibrada para una rápida convergencia y optimización constante

Casos de uso

Detección de discurso ofensivo/odio
Filtrado e identificación de contenido inapropiado en diversas aplicaciones