Hate-speech-CNERG/bert-base-uncased-hatexplain
El modelo se utiliza para clasificar un texto como Discurso de odio, Ofensivo o Normal. El modelo está entrenado utilizando datos de Gab y Twitter e incluía Racionalidades Humanas como parte de los datos de entrenamiento para mejorar el rendimiento. El conjunto de datos y los modelos están disponibles aquí: https://github.com/punyajoy/HateXplain. Para más detalles sobre nuestro artículo, consulte: Binny Mathew, Punyajoy Saha, Seid Muhie Yimam, Chris Biemann, Pawan Goyal, y Animesh Mukherjee "[HateXplain: A Benchmark Dataset for Explainable Hate Speech Detection)". Aceptado en AAAI 2021. Por favor, cite nuestro artículo en cualquier trabajo publicado que utilice cualquiera de estos recursos.
Como usar
El modelo se puede utilizar a través de los Endpoints de Inferencia dedicados de Hugging Face.
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
model_name = 'Hate-speech-CNERG/bert-base-uncased-hatexplain'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
inputs = tokenizer("your input sentence here", return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
probs = torch.nn.functional.softmax(logits, dim=-1)
print(probs)
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- JAX
- Explicación de discurso de odio
- Entrenado con datos de Gab y Twitter
- Incluye Racionalidades Humanas para mejorar el rendimiento
Casos de uso
- Detección de discurso de odio
- Identificación de lenguaje ofensivo
- Clasificación de texto en redes sociales