uer/roberta-base-finetuned-chinanews-chinese
uer
Clasificación de texto
Este es el conjunto de 5 modelos de clasificación Chinese RoBERTa-Base afinados por UER-py, que se presentan en este artículo. Además, los modelos también pueden ser afinados por TencentPretrain, que hereda UER-py para soportar modelos con más de mil millones de parámetros y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar los 5 modelos de clasificación Chinese RoBERTa-Base desde la página de Modelzoo de UER-py, o a través de HuggingFace desde los enlaces abajo indicados.
Como usar
Puedes usar este modelo directamente con un pipeline para la clasificación de texto (tomando el caso de roberta-base-finetuned-chinanews-chinese):
from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
text_classification("北京上个月召开了两会")
[{'label': 'mainland China politics', 'score': 0.7211663722991943}]
Funcionalidades
- Modelos de clasificación Chinese RoBERTa-Base afinados
- Compatibilidad con UER-py y TencentPretrain
- Soporte para modelos con más de mil millones de parámetros
- Marco de preentrenamiento multimodal
Casos de uso
- Clasificación de sentimientos en revisiones de usuarios
- Clasificación de temas en artículos de noticias