tomh/toxigen_roberta
tomh
Clasificación de texto
Este modelo proviene del artículo ToxiGen: Un conjunto de datos a gran escala generado por máquina para la detección de discursos de odio adversariales e implícitos. Puede usarse para detectar discursos de odio implícitos. Por favor, visite el repositorio de Github para el conjunto de datos de entrenamiento y más detalles.
Como usar
Puede usar este modelo para clasificar textos y detectar discursos de odio implícitos. Aquí hay un ejemplo de cómo usar el modelo:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained('tomh/toxigen_roberta')
model = AutoModelForSequenceClassification.from_pretrained('tomh/toxigen_roberta')
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Transformers
- Compatibilidad con AutoTrain
- Compatibilidad con Puntos de Inferencia
Casos de uso
- Detección de discursos de odio adversariales
- Detección de discursos de odio implícitos