Deepchecks/roberta_toxicity_classifier_onnx

Deepchecks
Clasificación de texto

Este modelo representa una versión optimizada con ONNX del modelo original roberta_toxicity_classifier. Ha sido específicamente adaptado para GPUs y puede mostrar variaciones en el rendimiento cuando se ejecuta en CPUs.

Como usar

from transformers import AutoTokenizer
from optimum.onnxruntime import ORTModelForSequenceClassification
from optimum.pipelines import pipeline

# cargar el tokenizer y los pesos del modelo
tokenizer = AutoTokenizer.from_pretrained('Deepchecks/roberta_toxicity_classifier_onnx')
model = ORTModelForSequenceClassification.from_pretrained('Deepchecks/roberta_toxicity_classifier_onnx')

# preparar la pipeline y generar inferencias
pip = pipeline(task='text-classification', model=model, tokenizer=tokenizer, device=device, accelerator="ort")
res = pip(['I hate you', 'I love you'], batch_size=64, truncation="only_first")

Dependencias

Antes de comenzar a trabajar con el modelo, por favor instale la siguiente dependencia:

pip install optimum[onnxruntime-gpu]

Información sobre la licencia

Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.

Funcionalidades

Clasificación de texto
Optimizado con ONNX
Compatible con GPUs
Adaptado para Transformers
Análisis de toxicidad

Casos de uso

Detección de discurso de odio o comentarios tóxicos en redes sociales u otras plataformas de texto
Moderación de contenido en tiempo real
Análisis de la toxicidad en comentarios o reseñas