Deepchecks/parrot_fluency_model_onnx

Deepchecks
Clasificación de texto

Este modelo representa una versión optimizada en ONNX del modelo original parrot_fluency_model. Ha sido específicamente diseñado para GPUs y puede mostrar variaciones en el rendimiento cuando se ejecuta en CPUs.

Como usar

from transformers import AutoTokenizer
from optimum.onnxruntime import ORTModelForSequenceClassification
from optimum.pipelines import pipeline

# Cargar el tokenizador y los pesos del modelo
tokenizer = AutoTokenizer.from_pretrained('Deepchecks/parrot_fluency_model_onnx')
model = ORTModelForSequenceClassification.from_pretrained('Deepchecks/parrot_fluency_model_onnx')

# Preparar el pipeline y generar inferencias
user_inputs = ['Natural language processing is an interdisciplinary subfield of linguistics, computer science, and artificial intelligence.',
'Pass on what you have learned. Strength, mastery, hmm... but weakness, folly, failure, also. Yes, failure, most of all. The greatest teacher, failure is.',
'Whispering dreams, forgotten desires, chaotic thoughts, dance with words, meaning elusive, swirling amidst.']
pip = pipeline(task='text-classification', model=model, tokenizer=tokenizer, device=device, accelerator='ort')
res = pip(user_inputs, batch_size=64, truncation='only_first')

Funcionalidades

Clasificación de texto
Transformadores
Optimizado para GPUs
Modelo en ONNX
Puntos finales de inferencia

Casos de uso

Clasificación de textos complejos y cortos
Evaluación de la fluidez del lenguaje en textos
Identificación de patrones lingüísticos avanzados