roberta-base-finetuned-jd-full-chinese
uer
Clasificación de texto
Esta es la serie de 5 modelos de clasificación RoBERTa-Base en chino afinados por UER-py, que se introduce en este artículo. Además, los modelos también podrían ser afinados por TencentPretrain, que se menciona en este artículo, el cual hereda UER-py para soportar modelos con más de mil millones de parámetros, y lo extiende a un marco de pre-entrenamiento multimodal.
Como usar
Puedes usar este modelo directamente con una pipeline para la clasificación de texto (tomando el caso de roberta-base-finetuned-chinanews-chinese):
from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model = AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer)
text_classification("北京上个月召开了两会")
[{'label': 'mainland China politics', 'score': 0.7211663722991943}]
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorFlow
- JAX
- Modelos pre-entrenados
- Multi-modalidad
Casos de uso
- Clasificación de reseñas de usuarios
- Clasificación de artículos de noticias por tema
- Análisis de sentimientos
- Pre-entrenamiento de modelos multimodales