JungleLee/bert-toxic-comment-classification

JungleLee
Clasificación de texto

Este modelo es una versión ajustada del modelo bert-base-uncased para clasificar comentarios tóxicos. El modelo alcanza un AUC de 0.95 en un conjunto de prueba de 1500 filas retenidas.

Como usar

from transformers import BertForSequenceClassification, BertTokenizer, TextClassificationPipeline

model_path = "JungleLee/bert-toxic-comment-classification"
tokenizer = BertTokenizer.from_pretrained(model_path)
model = BertForSequenceClassification.from_pretrained(model_path, num_labels=2)

pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)
print(pipeline("You're a fucking nerd."))

Funcionalidades

Clasificación de comentarios tóxicos
Modelo ajustado a partir de bert-base-uncased
Soporte para Transformadores y PyTorch

Casos de uso

Clasificación de comentarios en redes sociales
Moderación de contenido en foros y plataformas de discusión
Análisis de comentarios en aplicaciones de servicios al cliente