HooshvareLab/bert-fa-base-uncased-sentiment-snappfood

HooshvareLab
Clasificación de texto

ParsBERT (v2.0) es un modelo basado en Transformer para la comprensión del idioma persa. Reconstruimos el vocabulario y afinamos el ParsBERT v1.1 en nuevos corpus persas para proporcionar algunas funcionalidades para usar ParsBERT en otros ámbitos. Se probó con tres conjuntos de datos bien conocidos para clasificar textos, como comentarios, en función de su sesgo emocional. Los conjuntos de datos utilizados incluyen comentarios de usuarios de Digikala, SnappFood y DeepSentiPers en tipos binarios y multifórmicos.

Como usar

# Cómo usar:

from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Cargar el modelo y el tokenizador
model_name = 'HooshvareLab/bert-fa-base-uncased-sentiment-snappfood'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

# Preparar el texto
text = 'Tu comentario aquí'
inputs = tokenizer(text, return_tensors='pt')

# Obtener predicciones
outputs = model(**inputs)
logits = outputs.logits

Entrada y cita en BibTeX

@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}

Funcionalidades

Clasificación de texto
Modelo basado en Transformers
Optimizado para el idioma persa
Clasificación de sentimientos en comentarios de usuarios

Casos de uso

Clasificación de sentimientos en comentarios de usuarios de SnappFood
Clasificación de sentimientos en comentarios de usuarios de Digikala
Clasificación de sentimientos utilizando el conjunto de datos DeepSentiPers