Erlangshen-Roberta-110M-Sentiment
IDEA-CCNL
Clasificación de texto
Esta es la versión fine-tuned del modelo RoBERTa-wwm-ext-base chino en varios conjuntos de datos de análisis de sentimientos. Basado en chinese-roberta-wwm-ext-base, ajustamos un modelo de análisis de sentimientos en 8 conjuntos de datos chinos de análisis de sentimientos, con un total de 227,347 muestras.
Como usar
from transformers import BertForSequenceClassification
from transformers import BertTokenizer
import torch
tokenizer = BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-Roberta-110M-Sentiment')
model = BertForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-Roberta-110M-Sentiment')
text = '今天心情不好'
output = model(torch.tensor([tokenizer.encode(text)]))
print(torch.nn.functional.softmax(output.logits, dim=-1))
Funcionalidades
- Clasificación de texto
- Transformadores
- Compatibilidad con PyTorch
- NLU (Comprensión del Lenguaje Natural)
- Análisis de sentimientos
- Basado en RoBERTa
- Modelo con 110M parámetros
Casos de uso
- Análisis de sentimientos en textos chinos
- Comprensión del lenguaje natural en chino
- Clasificación de sentimientos en diferentes contextos y dominios chinos