DistilBERT Base Uncased Fine-Tuned Emotion

ahmettasdemir
Clasificación de texto

Este repositorio contiene un notebook para ajustar el modelo DistilBERT en la tarea de clasificación de emociones. El modelo entrenado está disponible en el Hugging Face Model Hub.

Como usar

Para usar el modelo DistilBERT afinado para la clasificación de emociones, siga estos pasos:

from transformers import TextClassificationPipeline, AutoModelForSequenceClassification, AutoTokenizer

# Cargar el modelo afinado y el tokenizador
model_name = "ahmettasdemir/distilbert-base-uncased-finetuned-emotion"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Crear el pipeline de clasificación de texto
pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)

# Texto de ejemplo para clasificar
text = "¡Me siento feliz hoy!"

# Realizar la clasificación de texto
result = pipeline(text)

# Imprimir la etiqueta predicha
predicted_label = result[0]['label']
print("Emoción predicha:", predicted_label)

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard
Puntos finales de inferencia

Casos de uso

Clasificación de emociones en texto
Análisis de sentimientos
Monitoreo del estado emocional en redes sociales