distilbert-base-german-cased-toxic-comments

ml6team
Clasificación de texto

Este modelo fue creado con el propósito de detectar comentarios tóxicos o potencialmente dañinos. Para este modelo, afinamos un modelo German DistilBERT distilbert-base-german-cased en una combinación de cinco conjuntos de datos en alemán que contienen toxicidad, palabras obscenas, contenido ofensivo o discursos de odio.

Como usar

from transformers import pipeline

model_hub_url = 'https://huggingface.co/ml6team/distilbert-base-german-cased-toxic-comments'
model_name = 'ml6team/distilbert-base-german-cased-toxic-comments'

toxicity_pipeline = pipeline('text-classification', model=model_name, tokenizer=model_name)

comentario = "Ein harmloses Beispiel"
resultado = toxicity_pipeline(comentario)[0]
print(f"Comment: {comentario}\nLabel: {resultado['label']}, score: {resultado['score']}")

Funcionalidades

Clasificación de textos
Transformadores
PyTorch
Conjunto de datos Germeval21
Clasificación en alemán
Puntos de inferencia
Enlace arxiv: 1701.08118

Casos de uso

Detección de toxicidad en comentarios en alemán