roberta-base-finetuned-jd-binary-chinese
uer
Clasificación de texto
Este es el conjunto de 5 modelos de clasificación chinos RoBERTa-Base afinados por UER-py, introducidos en este documento. Además, los modelos también podrían ser afinados por TencentPretrain, que hereda UER-py para soportar modelos con parámetros superiores a mil millones y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar los 5 modelos de clasificación chinos RoBERTa-Base desde la página de Modelzoo de UER-py o a través de Huggingface desde los enlaces a continuación.
Como usar
Puedes usar este modelo directamente con un pipeline para la clasificación de texto (toma el caso de roberta-base-finetuned-chinanews-chinese):
from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
text_classification("北京上个月召开了两会")
[{'label': 'mainland China politics', 'score': 0.7211663722991943}]
Funcionalidades
- Clasificación de texto
- Implementación con PyTorch
- Soporte para TensorFlow
- Entrenado en 5 conjuntos de datos de clasificación de texto chino
- Modelo preentrenado en Tencent Cloud
Casos de uso
- Clasificación de reseñas de usuarios en polaridades de sentimiento diferentes
- Clasificación de artículos de noticias en diferentes temas
- Reconocimiento de emociones en textos chinos