imaether/roberta-offensive-junior
imaether
Clasificación de texto
Esta es una versión afinada de RoBERTa base, afinada para detectar odio extremo (es decir, racismo extremo, homofobia e incitación al suicidio). Este modelo se está mejorando y se está utilizando activamente en el bot de Discord AetherJr.
Como usar
La forma más sencilla de utilizar este modelo es usando pipelines.
⚠️ Asegúrate de preprocesar tu texto de entrada, eliminando enlaces e identificadores, ya que el modelo tiene una longitud máxima de entrada de 512. También podrías dividir la entrada en segmentos de longitud 512 y hacer algunos cálculos para obtener la puntuación. Depende de ti.
import torch
from transformers import pipeline
device = 'cuda:0' if torch.cuda.is_available() else 'cpu'
classifier = pipeline(task="text-classification", model="imaether/roberta-offensive-junior", device=device) # add `top_k=None` if you want all scores to be returned
in_text = "this is a very cool and real example!"
model_output = classifier(in_text)
print(model_outputs)
# Output: [{'label': 'normal', 'score': 0.9999141693115234}]
Funcionalidades
- Clasificación de texto
- Compatibilidad con AutoTrain
- Compatibilidad con Endpoints de Inferencia
- Funciona con RoBERTa
- Utiliza bibliotecas de transformers
- Utiliza safetensors
Casos de uso
- Detección de odio extremo en comunicaciones en línea
- Identificación de mensajes altamente racistas y homofóbicos
- Detección de incitación al suicidio