shiyue/roberta-large-tac08
shiyue
Clasificación de texto
Este modelo es una implementación de transformers basado en la arquitectura RoBERTa, diseñado para la clasificación de texto. Es compatible con AutoTrain y Endpoints de Inferencia, y utiliza PyTorch como framework subyacente.
Como usar
Para utilizar este modelo, puedes emplear la siguiente manera:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
modelo = AutoModelForSequenceClassification.from_pretrained('shiyue/roberta-large-tac08')
tokenizador = AutoTokenizer.from_pretrained('shiyue/roberta-large-tac08')
texto = "Me gustas. Te amo."
inputs = tokenizador(texto, return_tensors='pt')
outputs = modelo(**inputs)
Actualmente, el modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor), pero se puede desplegar en Endpoints de Inferencia dedicados.
Funcionalidades
- Clasificación de texto
- Compatible con transformers
- Basado en PyTorch
- Compatible con AutoTrain
- Compatible con Endpoints de Inferencia
- Región: EE.UU.
Casos de uso
- Clasificación de sentimientos en texto
- Moderación de contenido
- Análisis de opinión