uer/roberta-base-finetuned-chinanews-chinese

uer
Clasificación de texto

Este es el conjunto de 5 modelos de clasificación Chinese RoBERTa-Base afinados por UER-py, que se presentan en este artículo. Además, los modelos también pueden ser afinados por TencentPretrain, que hereda UER-py para soportar modelos con más de mil millones de parámetros y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar los 5 modelos de clasificación Chinese RoBERTa-Base desde la página de Modelzoo de UER-py, o a través de HuggingFace desde los enlaces abajo indicados.

Como usar

Puedes usar este modelo directamente con un pipeline para la clasificación de texto (tomando el caso de roberta-base-finetuned-chinanews-chinese):

from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
text_classification("北京上个月召开了两会")
[{'label': 'mainland China politics', 'score': 0.7211663722991943}]

Funcionalidades

Modelos de clasificación Chinese RoBERTa-Base afinados
Compatibilidad con UER-py y TencentPretrain
Soporte para modelos con más de mil millones de parámetros
Marco de preentrenamiento multimodal

Casos de uso

Clasificación de sentimientos en revisiones de usuarios
Clasificación de temas en artículos de noticias