shiyue/roberta-large-tac08

shiyue
Clasificación de texto

Este modelo es una implementación de transformers basado en la arquitectura RoBERTa, diseñado para la clasificación de texto. Es compatible con AutoTrain y Endpoints de Inferencia, y utiliza PyTorch como framework subyacente.

Como usar

Para utilizar este modelo, puedes emplear la siguiente manera:

from transformers import AutoModelForSequenceClassification, AutoTokenizer

modelo = AutoModelForSequenceClassification.from_pretrained('shiyue/roberta-large-tac08')
tokenizador = AutoTokenizer.from_pretrained('shiyue/roberta-large-tac08')

texto = "Me gustas. Te amo."
inputs = tokenizador(texto, return_tensors='pt')
outputs = modelo(**inputs)

Actualmente, el modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor), pero se puede desplegar en Endpoints de Inferencia dedicados.

Funcionalidades

Clasificación de texto
Compatible con transformers
Basado en PyTorch
Compatible con AutoTrain
Compatible con Endpoints de Inferencia
Región: EE.UU.

Casos de uso

Clasificación de sentimientos en texto
Moderación de contenido
Análisis de opinión