zhx123/ftrobertallm

zhx123
Clasificación de texto

Un modelo de clasificación de texto basado en la arquitectura RoBERTa, compatible con AutoTrain y Puntos de Inferencia. Utiliza bibliotecas como transformers y safetensors, y está licenciado bajo MIT.

Como usar

Este modelo se puede utilizar para tareas de clasificación de texto. Aquí hay un ejemplo de cómo utilizar el modelo en código:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_name = 'zhx123/ftrobertallm'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

inputs = tokenizer("I like you. I love you", return_tensors="pt")
outputs = model(**inputs)

Funcionalidades

Clasificación de textos
Compatible con AutoTrain
Compatible con Puntos de Inferencia (Inference Endpoints)
Utiliza transformers
Soporta safetensors

Casos de uso

Clasificación de sentimientos
Detección de spam
Clasificación de temas