Erlangshen-Roberta-110M-Sentiment

IDEA-CCNL
Clasificación de texto

Esta es la versión fine-tuned del modelo RoBERTa-wwm-ext-base chino en varios conjuntos de datos de análisis de sentimientos. Basado en chinese-roberta-wwm-ext-base, ajustamos un modelo de análisis de sentimientos en 8 conjuntos de datos chinos de análisis de sentimientos, con un total de 227,347 muestras.

Como usar

from transformers import BertForSequenceClassification
from transformers import BertTokenizer
import torch

tokenizer = BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-Roberta-110M-Sentiment')
model = BertForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-Roberta-110M-Sentiment')

text = '今天心情不好'

output = model(torch.tensor([tokenizer.encode(text)]))
print(torch.nn.functional.softmax(output.logits, dim=-1))

Funcionalidades

Clasificación de texto
Transformadores
Compatibilidad con PyTorch
NLU (Comprensión del Lenguaje Natural)
Análisis de sentimientos
Basado en RoBERTa
Modelo con 110M parámetros

Casos de uso

Análisis de sentimientos en textos chinos
Comprensión del lenguaje natural en chino
Clasificación de sentimientos en diferentes contextos y dominios chinos