facebook/roberta-hate-speech-dynabench-r4-target

facebook
Clasificación de texto

El modelo R4 Target de 'Learning from the Worst: Dynamically Generated Datasets to Improve Online Hate Detection' desarrollado por Bertie Vidgen, Tristan Thrush, Zeerak Waseem y Douwe Kiela. Este modelo se utiliza para la clasificación de texto y está basado en la arquitectura Roberta. Es compatible con AutoTrain, Inference Endpoints y está implementado en PyTorch. El modelo está disponible tanto en formato transformers como en safetensors. Ha sido finetuneado para la detección de discurso de odio en línea.

Como usar

Para utilizar este modelo, puede seguir el código de ejemplo proporcionado a continuación:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained("facebook/roberta-hate-speech-dynabench-r4-target")
model = AutoModelForSequenceClassification.from_pretrained("facebook/roberta-hate-speech-dynabench-r4-target")

inputs = tokenizer("I like you. I love you", return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Basado en la arquitectura Roberta
Compatible con AutoTrain
Compatible con Inference Endpoints
Implementado en PyTorch
Disponible en formato transformers y safetensors

Casos de uso

Detección de discurso de odio en línea
Clasificación de texto en aplicaciones de redes sociales
Moderación de contenido