facebook/roberta-hate-speech-dynabench-r4-target
facebook
Clasificación de texto
El modelo R4 Target de 'Learning from the Worst: Dynamically Generated Datasets to Improve Online Hate Detection' desarrollado por Bertie Vidgen, Tristan Thrush, Zeerak Waseem y Douwe Kiela. Este modelo se utiliza para la clasificación de texto y está basado en la arquitectura Roberta. Es compatible con AutoTrain, Inference Endpoints y está implementado en PyTorch. El modelo está disponible tanto en formato transformers como en safetensors. Ha sido finetuneado para la detección de discurso de odio en línea.
Como usar
Para utilizar este modelo, puede seguir el código de ejemplo proporcionado a continuación:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained("facebook/roberta-hate-speech-dynabench-r4-target")
model = AutoModelForSequenceClassification.from_pretrained("facebook/roberta-hate-speech-dynabench-r4-target")
inputs = tokenizer("I like you. I love you", return_tensors="pt")
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Basado en la arquitectura Roberta
- Compatible con AutoTrain
- Compatible con Inference Endpoints
- Implementado en PyTorch
- Disponible en formato transformers y safetensors
Casos de uso
- Detección de discurso de odio en línea
- Clasificación de texto en aplicaciones de redes sociales
- Moderación de contenido