uer/roberta-base-finetuned-dianping-chinese

uer
Clasificación de texto

Este es el conjunto de 5 modelos de clasificación RoBERTa-Base en chino ajustados por UER-py, que se presenta en este artículo. Además, los modelos también podrían ser ajustados por TencentPretrain, que hereda UER-py para soportar modelos con parámetros superiores a mil millones y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar los 5 modelos de clasificación RoBERTa-Base en chino ya sea desde la página Modelzoo de UER-py, o a través de HuggingFace desde los enlaces proporcionados.

Como usar

from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline model=AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese') tokenizer=AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese') text_classification=pipeline('sentiment-analysis',model=model,tokenizer=tokenizer) text_classification('北京上个月召开了两会')

[
    {
        'label': 'mainland China politics',
        'score': 0.7211663722991943
    }
]

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorFlow
JAX
bert

Casos de uso

Clasificación de sentimientos a partir de comentarios de usuarios
Clasificación de temas en el primer párrafo de los artículos de noticias
Análisis de sentimientos en texto
Clasificación de tópicos en noticias