Deepchecks/roberta_toxicity_classifier_onnx
Deepchecks
Clasificación de texto
Este modelo representa una versión optimizada con ONNX del modelo original roberta_toxicity_classifier. Ha sido específicamente adaptado para GPUs y puede mostrar variaciones en el rendimiento cuando se ejecuta en CPUs.
Como usar
from transformers import AutoTokenizer
from optimum.onnxruntime import ORTModelForSequenceClassification
from optimum.pipelines import pipeline
# cargar el tokenizer y los pesos del modelo
tokenizer = AutoTokenizer.from_pretrained('Deepchecks/roberta_toxicity_classifier_onnx')
model = ORTModelForSequenceClassification.from_pretrained('Deepchecks/roberta_toxicity_classifier_onnx')
# preparar la pipeline y generar inferencias
pip = pipeline(task='text-classification', model=model, tokenizer=tokenizer, device=device, accelerator="ort")
res = pip(['I hate you', 'I love you'], batch_size=64, truncation="only_first")
Dependencias
Antes de comenzar a trabajar con el modelo, por favor instale la siguiente dependencia:
pip install optimum[onnxruntime-gpu]
Información sobre la licencia
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
Funcionalidades
- Clasificación de texto
- Optimizado con ONNX
- Compatible con GPUs
- Adaptado para Transformers
- Análisis de toxicidad
Casos de uso
- Detección de discurso de odio o comentarios tóxicos en redes sociales u otras plataformas de texto
- Moderación de contenido en tiempo real
- Análisis de la toxicidad en comentarios o reseñas