tomh/toxigen_roberta

tomh
Clasificación de texto

Este modelo proviene del artículo ToxiGen: Un conjunto de datos a gran escala generado por máquina para la detección de discursos de odio adversariales e implícitos. Puede usarse para detectar discursos de odio implícitos. Por favor, visite el repositorio de Github para el conjunto de datos de entrenamiento y más detalles.

Como usar

Puede usar este modelo para clasificar textos y detectar discursos de odio implícitos. Aquí hay un ejemplo de cómo usar el modelo:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained('tomh/toxigen_roberta')
model = AutoModelForSequenceClassification.from_pretrained('tomh/toxigen_roberta')

inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Transformers
Compatibilidad con AutoTrain
Compatibilidad con Puntos de Inferencia

Casos de uso

Detección de discursos de odio adversariales
Detección de discursos de odio implícitos