hellcatAI/ruRoberta_client_relevance_classification_quant

hellcatAI
Clasificación de texto

Este modelo utiliza la arquitectura Roberta optimizada para la clasificación de relevancia del cliente. Está implementado usando Transformers y es compatible con AutoTrain y Endpoints para la inferencia.

Como usar

Para usar este modelo, puede cargarlo utilizando la biblioteca Transformers de Hugging Face con los siguientes pasos:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_name = 'hellcatAI/ruRoberta_client_relevance_classification_quant'

# Cargar el tokenizador
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Cargar el modelo
model = AutoModelForSequenceClassification.from_pretrained(model_name)

# Tokenizar el texto de entrada
inputs = tokenizer('I like you. I love you', return_tensors='pt')

# Realizar la inferencia
outputs = model(**inputs)

Funcionalidades

Clasificación de texto
Basado en la arquitectura Roberta
Implementado con Transformers
Soporte para ONNX
Compatible con AutoTrain
Compatible con Endpoints para inferencia
Licencia MIT
Desplegable en la región de EE.UU.

Casos de uso

Clasificación de la relevancia de contenido basado en el contexto del cliente
Filtrado de información relevante en aplicaciones de servicio al cliente
Análisis de sentimientos en el sector de atención al cliente