textdetox/xlmr-large-toxicity-classifier
textdetox
Clasificación de texto
Esta es una instancia de xlm-roberta-large que se fine-tunifica en la tarea de clasificación binaria de toxicidad basada en nuestro conjunto de datos compilado textdetox/multilingual_toxicity_dataset. Primero, se separó un conjunto de prueba equilibrado del 20% para verificar la adecuación del modelo. Luego, el modelo se fine-tunificó en todos los datos.
Como usar
Para usar este modelo, puede seguir el siguiente ejemplo en Python utilizando la biblioteca Transformers de Hugging Face:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = "textdetox/xlmr-large-toxicity-classifier"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
input_text = "I like you. I love you"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Basado en Transformers
- Compatibilidad con Safetensors
- Compatible con AutoTrain
- Compatible con Endpoints
- Modelo multilingüe
Casos de uso
- Detección de comentarios tóxicos en redes sociales
- Moderación de contenido en foros en línea
- Filtrado de lenguaje inapropiado en plataformas de comunicación
- Análisis de toxicidad en comentarios de usuarios