distilbert-base-german-cased-toxic-comments
ml6team
Clasificación de texto
Este modelo fue creado con el propósito de detectar comentarios tóxicos o potencialmente dañinos. Para este modelo, afinamos un modelo German DistilBERT distilbert-base-german-cased en una combinación de cinco conjuntos de datos en alemán que contienen toxicidad, palabras obscenas, contenido ofensivo o discursos de odio.
Como usar
from transformers import pipeline
model_hub_url = 'https://huggingface.co/ml6team/distilbert-base-german-cased-toxic-comments'
model_name = 'ml6team/distilbert-base-german-cased-toxic-comments'
toxicity_pipeline = pipeline('text-classification', model=model_name, tokenizer=model_name)
comentario = "Ein harmloses Beispiel"
resultado = toxicity_pipeline(comentario)[0]
print(f"Comment: {comentario}\nLabel: {resultado['label']}, score: {resultado['score']}")
Funcionalidades
- Clasificación de textos
- Transformadores
- PyTorch
- Conjunto de datos Germeval21
- Clasificación en alemán
- Puntos de inferencia
- Enlace arxiv: 1701.08118
Casos de uso
- Detección de toxicidad en comentarios en alemán