osiria/bert-tweet-italian-uncased-sentiment
osiria
Clasificación de texto
Este es un modelo BERT sin distinción de mayúsculas y minúsculas para el idioma italiano, afinado para el análisis de sentimientos (clases positivas y negativas solamente) en el conjunto de datos SENTIPOLC-16, utilizando BERT-TWEET-ITALIAN (bert-tweet-base-italian-uncased) como modelo preentrenado. El modelo está entrenado para realizar clasificación binaria de sentimientos (positivo vs negativo) y se destina principalmente a tweets u otras publicaciones en redes sociales.
Como usar
from transformers import BertTokenizerFast, BertForSequenceClassification
tokenizer = BertTokenizerFast.from_pretrained("osiria/bert-tweet-italian-uncased-sentiment")
model = BertForSequenceClassification.from_pretrained("osiria/bert-tweet-italian-uncased-sentiment")
from transformers import pipeline
classifier = pipeline("text-classification", model = model, tokenizer = tokenizer)
classifier("una fantastica giornata di #calcio! grande prestazione del mister e della squadra")
# [{'label': 'POSITIVE', 'score': 0.9883694648742676}]
Funcionalidades
- Clasificación de sentimientos binaria (positivo vs negativo)
- Afinado para análisis de sentimientos
- Utiliza el modelo preentrenado bert-tweet-base-italian-uncased
- Entrenado con el conjunto de datos SENTIPOLC-16
- 3 épocas de entrenamiento con una tasa de aprendizaje constante de 1e-5
- Utiliza ponderación de clases para compensar el desequilibrio de clases
Casos de uso
- Procesamiento de texto en redes sociales
- Análisis de sentimientos en publicaciones cortas
- Clasificación de sentimientos en tweets