HooshvareLab/bert-fa-base-uncased-sentiment-deepsentipers-multi

HooshvareLab
Clasificación de texto

Un modelo basado en Transformer para la comprensión del idioma persa. Reconstruimos el vocabulario y afinamos ParsBERT v1.1 en nuevos corpus persas para proporcionar algunas funcionalidades para usar ParsBERT en otros ámbitos. El modelo tiene como objetivo clasificar el texto, como comentarios, según su sesgo emocional. Probamos tres conjuntos de datos bien conocidos para esta tarea: comentarios de los usuarios de Digikala, comentarios de los usuarios de SnappFood y DeepSentiPers en dos tipos binarios y multifoma.

Como usar

Para usar el modelo:

# Importar bibliotecas necesarias
from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Cargar el tokenizador y el modelo
model_name = 'HooshvareLab/bert-fa-base-uncased-sentiment-deepsentipers-multi'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

# Ejemplo de texto para clasificación
text = 'Tu ejemplo de texto aquí'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)

Citación del modelo en publicaciones:

@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}

Funcionalidades

Clasificación de texto
Modelo basado en Transformers
Soporte para múltiples formas y formas binarias
Probado en tres conjuntos de datos bien conocidos
Clasificación de sentimientos en varios estados emocionales

Casos de uso

Análisis de sentimientos en comentarios de usuarios
Clasificación binaria y multi-clase de opiniones
Comprender el idioma persa en textos escritos