HooshvareLab/bert-fa-base-uncased-sentiment-deepsentipers-multi
HooshvareLab
Clasificación de texto
Un modelo basado en Transformer para la comprensión del idioma persa. Reconstruimos el vocabulario y afinamos ParsBERT v1.1 en nuevos corpus persas para proporcionar algunas funcionalidades para usar ParsBERT en otros ámbitos. El modelo tiene como objetivo clasificar el texto, como comentarios, según su sesgo emocional. Probamos tres conjuntos de datos bien conocidos para esta tarea: comentarios de los usuarios de Digikala, comentarios de los usuarios de SnappFood y DeepSentiPers en dos tipos binarios y multifoma.
Como usar
Para usar el modelo:
# Importar bibliotecas necesarias
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# Cargar el tokenizador y el modelo
model_name = 'HooshvareLab/bert-fa-base-uncased-sentiment-deepsentipers-multi'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Ejemplo de texto para clasificación
text = 'Tu ejemplo de texto aquí'
inputs = tokenizer(text, return_tensors='pt')
outputs = model(**inputs)
Citación del modelo en publicaciones:
@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}
Funcionalidades
- Clasificación de texto
- Modelo basado en Transformers
- Soporte para múltiples formas y formas binarias
- Probado en tres conjuntos de datos bien conocidos
- Clasificación de sentimientos en varios estados emocionales
Casos de uso
- Análisis de sentimientos en comentarios de usuarios
- Clasificación binaria y multi-clase de opiniones
- Comprender el idioma persa en textos escritos