MilaNLProc/xlm-emo-t
Detectar emociones en texto permite a los científicos sociales y computacionales estudiar cómo las personas se comportan y reaccionan a eventos en línea. Sin embargo, desarrollar estas herramientas para diferentes idiomas requiere datos que no siempre están disponibles. Este artículo recopila los conjuntos de datos disponibles para la detección de emociones en 19 idiomas. Entrenamos un modelo de predicción de emociones multilingüe para datos de redes sociales, XLM-EMO. El modelo muestra un rendimiento competitivo en un entorno zero-shot, lo que sugiere que es útil en el contexto de idiomas con pocos recursos. Liberamos nuestro modelo a la comunidad para que los investigadores interesados puedan usarlo directamente.
Como usar
El modelo está destinado como un producto de investigación para comunidades de investigación. Los principales usuarios previstos de estos modelos son investigadores de IA.
# Ejemplo de clasificación de emociones usando el modelo MilaNLProc/xlm-emo-t
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
# Cargar el modelo y el tokenizador
model_name = 'MilaNLProc/xlm-emo-t'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Texto de prueba
text = 'Guarda! ci sono dei bellissimi capibara!'
# Tokenizar el texto
inputs = tokenizer(text, return_tensors='pt')
# Hacer predicciones
with torch.no_grad():
logits = model(**inputs).logits
# Obtener la etiqueta de la predicción
predicted_label = torch.argmax(logits, dim=1).item()
print(f'Predicted label: {predicted_label}')
Funcionalidades
- Transformers
- PyTorch
- XLM-Roberta
- Clasificación de texto
- Análisis de emociones
- Multilingüe
- Compatible con AutoTrain
- Compatible con Endpoints
Casos de uso
- Predicción de emociones en textos de redes sociales
- Análisis de comportamiento y reacciones en línea
- Investigación de idiomas con pocos recursos