textdetox/xlmr-large-toxicity-classifier

textdetox
Clasificación de texto

Esta es una instancia de xlm-roberta-large que se fine-tunifica en la tarea de clasificación binaria de toxicidad basada en nuestro conjunto de datos compilado textdetox/multilingual_toxicity_dataset. Primero, se separó un conjunto de prueba equilibrado del 20% para verificar la adecuación del modelo. Luego, el modelo se fine-tunificó en todos los datos.

Como usar

Para usar este modelo, puede seguir el siguiente ejemplo en Python utilizando la biblioteca Transformers de Hugging Face:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_name = "textdetox/xlmr-large-toxicity-classifier"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

input_text = "I like you. I love you"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Basado en Transformers
Compatibilidad con Safetensors
Compatible con AutoTrain
Compatible con Endpoints
Modelo multilingüe

Casos de uso

Detección de comentarios tóxicos en redes sociales
Moderación de contenido en foros en línea
Filtrado de lenguaje inapropiado en plataformas de comunicación
Análisis de toxicidad en comentarios de usuarios