Erlangshen-MegatronBert-1.3B-Sentiment

IDEA-CCNL
Clasificación de texto

Esta es la versión afinada del modelo BERT chino en varios conjuntos de datos de análisis de sentimientos, que encabezó las referencias FewCLUE y ZeroCLUE en 2021. Basado en Erlangshen-MegatronBert-1.3B, sintonizamos una versión de análisis de sentimientos en 8 conjuntos de datos de análisis de sentimientos en chino, totalizando 227,347 muestras.

Como usar

from transformers import AutoModelForSequenceClassification
from transformers import BertTokenizer
import torch

tokenizer = BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-Sentiment')
model = AutoModelForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-Sentiment')

text = '今天心情不好'

output = model(torch.tensor([tokenizer.encode(text)]))
print(torch.nn.functional.softmax(output.logits, dim=-1))

Funcionalidades

Transformers
PyTorch
Chino
megatron-bert
bert
NLU
Análisis de sentimientos

Casos de uso

Clasificación de texto
Análisis de sentimientos