hellcatAI/ruRoberta_client_relevance_classification_quant
hellcatAI
Clasificación de texto
Este modelo utiliza la arquitectura Roberta optimizada para la clasificación de relevancia del cliente. Está implementado usando Transformers y es compatible con AutoTrain y Endpoints para la inferencia.
Como usar
Para usar este modelo, puede cargarlo utilizando la biblioteca Transformers de Hugging Face con los siguientes pasos:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = 'hellcatAI/ruRoberta_client_relevance_classification_quant'
# Cargar el tokenizador
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Cargar el modelo
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Tokenizar el texto de entrada
inputs = tokenizer('I like you. I love you', return_tensors='pt')
# Realizar la inferencia
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Basado en la arquitectura Roberta
- Implementado con Transformers
- Soporte para ONNX
- Compatible con AutoTrain
- Compatible con Endpoints para inferencia
- Licencia MIT
- Desplegable en la región de EE.UU.
Casos de uso
- Clasificación de la relevancia de contenido basado en el contexto del cliente
- Filtrado de información relevante en aplicaciones de servicio al cliente
- Análisis de sentimientos en el sector de atención al cliente