XLM-RoBERTa-German-Sentiment

ssary
Clasificación de texto

El modelo XLM-RoBERTa-German-Sentiment está diseñado para realizar análisis de sentimientos en 8 idiomas y, más específicamente, en el idioma alemán. Este modelo aprovecha la arquitectura de XLM-RoBERTa, una elección inspirada por el rendimiento superior de RoBERTa de Facebook sobre BERT de Google en numerosos benchmarks. La decisión de usar XLM-RoBERTa se basa en sus capacidades multilingües. Específicamente diseñado para el idioma alemán, este modelo ha sido ajustado con más de 200,000 muestras de análisis de sentimientos en alemán. Más sobre el entrenamiento del modelo se puede encontrar en el documento. El conjunto de datos utilizado para el entrenamiento, disponible en este repositorio de GitHub, ha sido desarrollado por Oliver Guhr, a quien extendemos nuestro agradecimiento por hacer el conjunto de datos de código abierto. El conjunto de datos fue influyente en refinar la precisión y capacidad de respuesta del modelo a las sutilezas del sentimiento en alemán. Nuestro modelo y ajuste fino se basan en un modelo de análisis de sentimientos llamado xlm-t [https://arxiv.org/abs/2104.12250].

Como usar

He desarrollado una aplicación de escritorio en Python para la inferencia en mi repositorio. Para usar este modelo, necesitas instalar la biblioteca Transformers de Hugging Face y PyTorch. Puedes hacerlo usando pip:

pip install torch transformers
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
text = "Erneuter Streik in der S-Bahn"
model = AutoModelForSequenceClassification.from_pretrained('ssary/XLM-RoBERTa-German-sentiment')
tokenizer = AutoTokenizer.from_pretrained('ssary/XLM-RoBERTa-German-sentiment')
inputs = tokenizer(text, return_tensors="pt", truncation=True, max_length=512)
with torch.no_grad():
    outputs = model(**inputs)
    predictions = torch.nn.functional.softmax(outputs.logits, dim=-1)
    sentiment_classes = ['negative', 'neutral', 'positive']
    print(sentiment_classes[predictions.argmax()]) # Para la clase con mayor probabilidad
    print(predictions) # Para la probabilidad de cada clase

Funcionalidades

Arquitectura XLM-RoBERTa
Análisis de sentimientos multilingüe
85% puntaje F1 ponderado
Compatible con 8 idiomas
Modelo ajustado con más de 200,000 muestras de análisis de sentimientos en alemán

Casos de uso

Análisis de sentimientos en tweets
Monitoreo de opiniones de clientes en redes sociales
Evaluación de reseñas de productos
Análisis de tendencia de noticias