imaether/roberta-offensive-junior

imaether
Clasificación de texto

Esta es una versión afinada de RoBERTa base, afinada para detectar odio extremo (es decir, racismo extremo, homofobia e incitación al suicidio). Este modelo se está mejorando y se está utilizando activamente en el bot de Discord AetherJr.

Como usar

La forma más sencilla de utilizar este modelo es usando pipelines. ⚠️ Asegúrate de preprocesar tu texto de entrada, eliminando enlaces e identificadores, ya que el modelo tiene una longitud máxima de entrada de 512. También podrías dividir la entrada en segmentos de longitud 512 y hacer algunos cálculos para obtener la puntuación. Depende de ti.

import torch
from transformers import pipeline

device = 'cuda:0' if torch.cuda.is_available() else 'cpu'
classifier = pipeline(task="text-classification", model="imaether/roberta-offensive-junior", device=device) # add `top_k=None` if you want all scores to be returned

in_text = "this is a very cool and real example!"

model_output = classifier(in_text)
print(model_outputs)
# Output: [{'label': 'normal', 'score': 0.9999141693115234}]

Funcionalidades

Clasificación de texto
Compatibilidad con AutoTrain
Compatibilidad con Endpoints de Inferencia
Funciona con RoBERTa
Utiliza bibliotecas de transformers
Utiliza safetensors

Casos de uso

Detección de odio extremo en comunicaciones en línea
Identificación de mensajes altamente racistas y homofóbicos
Detección de incitación al suicidio