albert-base-v2-emotion

bhadresh-savani
Clasificación de texto

Albert es una arquitectura Lite BERT que tiene significativamente menos parámetros que una arquitectura BERT tradicional. Albert-base-v2 afinado en el conjunto de datos de emociones utilizando HuggingFace Trainer con los siguientes hiperparámetros: tasa de aprendizaje 2e-5, tamaño de lote 64, número de épocas de entrenamiento 8.

Como usar

from transformers import pipeline
classifier = pipeline("text-classification",model='bhadresh-savani/albert-base-v2-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use")
print(prediction)
Salida:
[[
{'label': 'sadness', 'score': 0.010403595864772797},
{'label': 'joy', 'score': 0.8902180790901184},
{'label': 'love', 'score': 0.042532723397016525},
{'label': 'anger', 'score': 0.041297927498817444},
{'label': 'fear', 'score': 0.011772023513913155},
{'label': 'surprise', 'score': 0.0037756056990474463}
]]

Funcionalidades

Arquitectura Lite BERT
Menor cantidad de parámetros
Tasa de aprendizaje 2e-5
Tamaño de lote 64
Número de épocas de entrenamiento 8
Compatible con HuggingFace Trainer

Casos de uso

Clasificación de texto
Análisis de sentimientos en redes sociales
Detección de emociones en texto