DistilBERT Base Uncased Fine-Tuned Emotion
ahmettasdemir
Clasificación de texto
Este repositorio contiene un notebook para ajustar el modelo DistilBERT en la tarea de clasificación de emociones. El modelo entrenado está disponible en el Hugging Face Model Hub.
Como usar
Para usar el modelo DistilBERT afinado para la clasificación de emociones, siga estos pasos:
from transformers import TextClassificationPipeline, AutoModelForSequenceClassification, AutoTokenizer
# Cargar el modelo afinado y el tokenizador
model_name = "ahmettasdemir/distilbert-base-uncased-finetuned-emotion"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# Crear el pipeline de clasificación de texto
pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)
# Texto de ejemplo para clasificar
text = "¡Me siento feliz hoy!"
# Realizar la clasificación de texto
result = pipeline(text)
# Imprimir la etiqueta predicha
predicted_label = result[0]['label']
print("Emoción predicha:", predicted_label)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
- Puntos finales de inferencia
Casos de uso
- Clasificación de emociones en texto
- Análisis de sentimientos
- Monitoreo del estado emocional en redes sociales