roberta-base-finetuned-jd-binary-chinese

uer
Clasificación de texto

Este es el conjunto de 5 modelos de clasificación chinos RoBERTa-Base afinados por UER-py, introducidos en este documento. Además, los modelos también podrían ser afinados por TencentPretrain, que hereda UER-py para soportar modelos con parámetros superiores a mil millones y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar los 5 modelos de clasificación chinos RoBERTa-Base desde la página de Modelzoo de UER-py o a través de Huggingface desde los enlaces a continuación.

Como usar

Puedes usar este modelo directamente con un pipeline para la clasificación de texto (toma el caso de roberta-base-finetuned-chinanews-chinese):

from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
text_classification("北京上个月召开了两会")
[{'label': 'mainland China politics', 'score': 0.7211663722991943}]

Funcionalidades

Clasificación de texto
Implementación con PyTorch
Soporte para TensorFlow
Entrenado en 5 conjuntos de datos de clasificación de texto chino
Modelo preentrenado en Tencent Cloud

Casos de uso

Clasificación de reseñas de usuarios en polaridades de sentimiento diferentes
Clasificación de artículos de noticias en diferentes temas
Reconocimiento de emociones en textos chinos