zhx123/ftrobertallm
zhx123
Clasificación de texto
Un modelo de clasificación de texto basado en la arquitectura RoBERTa, compatible con AutoTrain y Puntos de Inferencia. Utiliza bibliotecas como transformers y safetensors, y está licenciado bajo MIT.
Como usar
Este modelo se puede utilizar para tareas de clasificación de texto. Aquí hay un ejemplo de cómo utilizar el modelo en código:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = 'zhx123/ftrobertallm'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
inputs = tokenizer("I like you. I love you", return_tensors="pt")
outputs = model(**inputs)
Funcionalidades
- Clasificación de textos
- Compatible con AutoTrain
- Compatible con Puntos de Inferencia (Inference Endpoints)
- Utiliza transformers
- Soporta safetensors
Casos de uso
- Clasificación de sentimientos
- Detección de spam
- Clasificación de temas