Falconsai/offensive_speech_detection
DistilBERT afinado es una variante del modelo transformer BERT, destilado para un rendimiento eficiente manteniendo una alta precisión. Ha sido adaptado y afinado para la tarea específica de detección de discurso ofensivo/odio en datos textuales. El modelo, llamado 'distilbert-base-uncased', está preentrenado en una cantidad sustancial de datos de texto, lo que le permite capturar matices semánticos e información contextual presente en el texto en lenguaje natural. Ha sido afinado con meticulosa atención a la configuración de hiperparámetros, incluido el tamaño de lote y la tasa de aprendizaje, para garantizar un rendimiento óptimo del modelo para la tarea de detección de discurso ofensivo/odio. Durante el proceso de afinamiento, se eligió un tamaño de lote de 16 para una computación y aprendizaje eficientes. Además, se seleccionó una tasa de aprendizaje (2e-5) para lograr un equilibrio entre una convergencia rápida y una optimización constante, asegurando que el modelo no solo aprenda rápidamente sino que también refine constantemente sus capacidades a lo largo del entrenamiento.
Como usar
Para usar este modelo para la detección de discurso ofensivo/odio, puedes seguir estos pasos:
from transformers import pipeline
classifier = pipeline("text-classification", model="Falconsai/offensive_speech_detection")
text = "Tu texto para clasificar aquí."
result = classifier(text)
Funcionalidades
- Detecta discurso ofensivo/odio
- Preentrenado en una gran cantidad de datos textuales
- Afinado con configuraciones específicas de hiperparámetros
- Tasa de aprendizaje equilibrada para una rápida convergencia y optimización constante
Casos de uso
- Detección de discurso ofensivo/odio
- Filtrado e identificación de contenido inapropiado en diversas aplicaciones