JungleLee/bert-toxic-comment-classification
JungleLee
Clasificación de texto
Este modelo es una versión ajustada del modelo bert-base-uncased para clasificar comentarios tóxicos. El modelo alcanza un AUC de 0.95 en un conjunto de prueba de 1500 filas retenidas.
Como usar
from transformers import BertForSequenceClassification, BertTokenizer, TextClassificationPipeline
model_path = "JungleLee/bert-toxic-comment-classification"
tokenizer = BertTokenizer.from_pretrained(model_path)
model = BertForSequenceClassification.from_pretrained(model_path, num_labels=2)
pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)
print(pipeline("You're a fucking nerd."))
Funcionalidades
- Clasificación de comentarios tóxicos
- Modelo ajustado a partir de bert-base-uncased
- Soporte para Transformadores y PyTorch
Casos de uso
- Clasificación de comentarios en redes sociales
- Moderación de contenido en foros y plataformas de discusión
- Análisis de comentarios en aplicaciones de servicios al cliente