Erlangshen-MegatronBert-1.3B-Sentiment
IDEA-CCNL
Clasificación de texto
Esta es la versión afinada del modelo BERT chino en varios conjuntos de datos de análisis de sentimientos, que encabezó las referencias FewCLUE y ZeroCLUE en 2021. Basado en Erlangshen-MegatronBert-1.3B, sintonizamos una versión de análisis de sentimientos en 8 conjuntos de datos de análisis de sentimientos en chino, totalizando 227,347 muestras.
Como usar
from transformers import AutoModelForSequenceClassification
from transformers import BertTokenizer
import torch
tokenizer = BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-Sentiment')
model = AutoModelForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-MegatronBert-1.3B-Sentiment')
text = '今天心情不好'
output = model(torch.tensor([tokenizer.encode(text)]))
print(torch.nn.functional.softmax(output.logits, dim=-1))
Funcionalidades
- Transformers
- PyTorch
- Chino
- megatron-bert
- bert
- NLU
- Análisis de sentimientos
Casos de uso
- Clasificación de texto
- Análisis de sentimientos