bert-fa-base-uncased-clf-persiannews

HooshvareLab
Clasificación de texto

Un modelo basado en Transformers para la comprensión del lenguaje persa. Reconstruimos el vocabulario y afinamos el ParsBERT v1.1 en los nuevos corpus de persa para proporcionar algunas funcionalidades para el uso de ParsBERT en otros ámbitos.

Como usar

Cómo usar :hugs:

@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}

Clasificación de texto

El siguiente conjunto de datos detalla las puntuaciones F1 obtenidas por ParsBERT en comparación con otros modelos y arquitecturas:

| Dataset | ParsBERT v2 | ParsBERT v1 | mBERT | | --- | --- | --- | --- | | Persian News | 97.44* | 97.19 | 95.79 |

Funcionalidades

Clasificación de texto
Transformers
Soporte para PyTorch, TensorFlow y JAX
Entrenamiento en los conjuntos de datos DigiMag y Persian News

Casos de uso

Etiquetado de textos en los conjuntos de datos DigiMag y Persian News
Clasificación de artículos de noticias en diferentes categorías como Economía, Internacional, Política, Ciencia y Tecnología, Cultura y Arte, Deporte, Medicina y Social.