HooshvareLab/bert-fa-base-uncased-sentiment-snappfood
HooshvareLab
Clasificación de texto
ParsBERT (v2.0) es un modelo basado en Transformer para la comprensión del idioma persa. Reconstruimos el vocabulario y afinamos el ParsBERT v1.1 en nuevos corpus persas para proporcionar algunas funcionalidades para usar ParsBERT en otros ámbitos. Se probó con tres conjuntos de datos bien conocidos para clasificar textos, como comentarios, en función de su sesgo emocional. Los conjuntos de datos utilizados incluyen comentarios de usuarios de Digikala, SnappFood y DeepSentiPers en tipos binarios y multifórmicos.
Como usar
# Cómo usar:
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# Cargar el modelo y el tokenizador
model_name = 'HooshvareLab/bert-fa-base-uncased-sentiment-snappfood'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Preparar el texto
text = 'Tu comentario aquí'
inputs = tokenizer(text, return_tensors='pt')
# Obtener predicciones
outputs = model(**inputs)
logits = outputs.logits
Entrada y cita en BibTeX
@article{ParsBERT,
title={ParsBERT: Transformer-based Model for Persian Language Understanding},
author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
journal={ArXiv},
year={2020},
volume={abs/2005.12515}
}
Funcionalidades
- Clasificación de texto
- Modelo basado en Transformers
- Optimizado para el idioma persa
- Clasificación de sentimientos en comentarios de usuarios
Casos de uso
- Clasificación de sentimientos en comentarios de usuarios de SnappFood
- Clasificación de sentimientos en comentarios de usuarios de Digikala
- Clasificación de sentimientos utilizando el conjunto de datos DeepSentiPers