neuraly/bert-base-italian-cased-sentiment
neuraly
Clasificación de texto
Este modelo realiza análisis de sentimientos en oraciones en italiano. Fue entrenado a partir de una instancia de bert-base-italiano-cased, y ajustado en un conjunto de datos italianos de tweets, alcanzando un 82% de precisión en este último.
Como usar
import torch
from torch import nn
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# Cargar el tokenizer
tokenizer = AutoTokenizer.from_pretrained("neuraly/bert-base-italian-cased-sentiment")
# Cargar el modelo, usa .cuda() para cargarlo en la GPU
model = AutoModelForSequenceClassification.from_pretrained("neuraly/bert-base-italian-cased-sentiment")
sentence = '¡Huggingface es un equipo fantástico!'
input_ids = tokenizer.encode(sentence, add_special_tokens=True)
# Crear tensor, usa .cuda() para transferir el tensor a la GPU
tensor = torch.tensor(input_ids).long()
# Dimensión de lote falso
tensor = tensor.unsqueeze(0)
# Llamar al modelo y obtener los logits
logits, = model(tensor)
# Eliminar la dimensión de lote falso
logits = logits.squeeze(0)
# El modelo fue entrenado con una combinación de Log Likelyhood + Softmax, por lo tanto, para extraer probabilidades, necesitamos un softmax en la parte superior del tensor logits
proba = nn.functional.softmax(logits, dim=0)
# Desempaquetar el tensor para obtener las probabilidades negativas, neutrales y positivas
negative, neutral, positive = proba
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorFlow
- JAX
- Límites de inferencia
Casos de uso
- Análisis de sentimientos en tweets italianos
- Clasificación de opiniones
- Evaluación de reacciones en redes sociales, especialmente en temas relacionados con jugadores y equipos de fútbol