roberta-base-finetuned-jd-full-chinese

uer
Clasificación de texto

Esta es la serie de 5 modelos de clasificación RoBERTa-Base en chino afinados por UER-py, que se introduce en este artículo. Además, los modelos también podrían ser afinados por TencentPretrain, que se menciona en este artículo, el cual hereda UER-py para soportar modelos con más de mil millones de parámetros, y lo extiende a un marco de pre-entrenamiento multimodal.

Como usar

Puedes usar este modelo directamente con una pipeline para la clasificación de texto (tomando el caso de roberta-base-finetuned-chinanews-chinese):

from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
text_classification("北京上个月召开了两会")
[{'label': 'mainland China politics', 'score': 0.7211663722991943}]

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorFlow
JAX
Modelos pre-entrenados
Multi-modalidad

Casos de uso

Clasificación de reseñas de usuarios
Clasificación de artículos de noticias por tema
Análisis de sentimientos
Pre-entrenamiento de modelos multimodales