bert-fa-base-uncased-clf-persiannews
HooshvareLab
Clasificación de texto
Un modelo basado en Transformers para la comprensión del lenguaje persa. Reconstruimos el vocabulario y afinamos el ParsBERT v1.1 en los nuevos corpus de persa para proporcionar algunas funcionalidades para el uso de ParsBERT en otros ámbitos.
Como usar
Cómo usar :hugs:
@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}
Clasificación de texto
El siguiente conjunto de datos detalla las puntuaciones F1 obtenidas por ParsBERT en comparación con otros modelos y arquitecturas:
| Dataset | ParsBERT v2 | ParsBERT v1 | mBERT |
| --- | --- | --- | --- |
| Persian News | 97.44* | 97.19 | 95.79 |
Funcionalidades
- Clasificación de texto
- Transformers
- Soporte para PyTorch, TensorFlow y JAX
- Entrenamiento en los conjuntos de datos DigiMag y Persian News
Casos de uso
- Etiquetado de textos en los conjuntos de datos DigiMag y Persian News
- Clasificación de artículos de noticias en diferentes categorías como Economía, Internacional, Política, Ciencia y Tecnología, Cultura y Arte, Deporte, Medicina y Social.