uer/roberta-base-finetuned-dianping-chinese
Este es el conjunto de 5 modelos de clasificación RoBERTa-Base en chino ajustados por UER-py, que se presenta en este artículo. Además, los modelos también podrían ser ajustados por TencentPretrain, que hereda UER-py para soportar modelos con parámetros superiores a mil millones y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar los 5 modelos de clasificación RoBERTa-Base en chino ya sea desde la página Modelzoo de UER-py, o a través de HuggingFace desde los enlaces proporcionados.
Como usar
from transformers import AutoModelForSequenceClassification,AutoTokenizer,pipeline
model=AutoModelForSequenceClassification.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
tokenizer=AutoTokenizer.from_pretrained('uer/roberta-base-finetuned-chinanews-chinese')
text_classification=pipeline('sentiment-analysis',model=model,tokenizer=tokenizer)
text_classification('北京上个月召开了两会')
[
{
'label': 'mainland China politics',
'score': 0.7211663722991943
}
]
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorFlow
- JAX
- bert
Casos de uso
- Clasificación de sentimientos a partir de comentarios de usuarios
- Clasificación de temas en el primer párrafo de los artículos de noticias
- Análisis de sentimientos en texto
- Clasificación de tópicos en noticias