XLM-RoBERTa-German-Sentiment
El modelo XLM-RoBERTa-German-Sentiment está diseñado para realizar análisis de sentimientos en 8 idiomas y, más específicamente, en el idioma alemán. Este modelo aprovecha la arquitectura de XLM-RoBERTa, una elección inspirada por el rendimiento superior de RoBERTa de Facebook sobre BERT de Google en numerosos benchmarks. La decisión de usar XLM-RoBERTa se basa en sus capacidades multilingües. Específicamente diseñado para el idioma alemán, este modelo ha sido ajustado con más de 200,000 muestras de análisis de sentimientos en alemán. Más sobre el entrenamiento del modelo se puede encontrar en el documento. El conjunto de datos utilizado para el entrenamiento, disponible en este repositorio de GitHub, ha sido desarrollado por Oliver Guhr, a quien extendemos nuestro agradecimiento por hacer el conjunto de datos de código abierto. El conjunto de datos fue influyente en refinar la precisión y capacidad de respuesta del modelo a las sutilezas del sentimiento en alemán. Nuestro modelo y ajuste fino se basan en un modelo de análisis de sentimientos llamado xlm-t [https://arxiv.org/abs/2104.12250].
Como usar
He desarrollado una aplicación de escritorio en Python para la inferencia en mi repositorio. Para usar este modelo, necesitas instalar la biblioteca Transformers de Hugging Face y PyTorch. Puedes hacerlo usando pip:
pip install torch transformers
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
text = "Erneuter Streik in der S-Bahn"
model = AutoModelForSequenceClassification.from_pretrained('ssary/XLM-RoBERTa-German-sentiment')
tokenizer = AutoTokenizer.from_pretrained('ssary/XLM-RoBERTa-German-sentiment')
inputs = tokenizer(text, return_tensors="pt", truncation=True, max_length=512)
with torch.no_grad():
outputs = model(**inputs)
predictions = torch.nn.functional.softmax(outputs.logits, dim=-1)
sentiment_classes = ['negative', 'neutral', 'positive']
print(sentiment_classes[predictions.argmax()]) # Para la clase con mayor probabilidad
print(predictions) # Para la probabilidad de cada clase
Funcionalidades
- Arquitectura XLM-RoBERTa
- Análisis de sentimientos multilingüe
- 85% puntaje F1 ponderado
- Compatible con 8 idiomas
- Modelo ajustado con más de 200,000 muestras de análisis de sentimientos en alemán
Casos de uso
- Análisis de sentimientos en tweets
- Monitoreo de opiniones de clientes en redes sociales
- Evaluación de reseñas de productos
- Análisis de tendencia de noticias