modelo de comentarios tóxicos de martin-ha
martin-ha
Clasificación de texto
Este modelo es una versión ajustada del modelo DistilBERT para clasificar comentarios tóxicos.
Como usar
from transformers import AutoModelForSequenceClassification, AutoTokenizer, TextClassificationPipeline
model_path = "martin-ha/toxic-comment-model"
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForSequenceClassification.from_pretrained(model_path)
pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)
print(pipeline('Este es un texto de prueba.'))
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- DistilBERT
Casos de uso
- Clasificación de comentarios en línea
- Detección de comentarios tóxicos