albert-base-v2-emotion
bhadresh-savani
Clasificación de texto
Albert es una arquitectura Lite BERT que tiene significativamente menos parámetros que una arquitectura BERT tradicional. Albert-base-v2 afinado en el conjunto de datos de emociones utilizando HuggingFace Trainer con los siguientes hiperparámetros: tasa de aprendizaje 2e-5, tamaño de lote 64, número de épocas de entrenamiento 8.
Como usar
from transformers import pipeline
classifier = pipeline("text-classification",model='bhadresh-savani/albert-base-v2-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use")
print(prediction)
Salida:
[[
{'label': 'sadness', 'score': 0.010403595864772797},
{'label': 'joy', 'score': 0.8902180790901184},
{'label': 'love', 'score': 0.042532723397016525},
{'label': 'anger', 'score': 0.041297927498817444},
{'label': 'fear', 'score': 0.011772023513913155},
{'label': 'surprise', 'score': 0.0037756056990474463}
]]
Funcionalidades
- Arquitectura Lite BERT
- Menor cantidad de parámetros
- Tasa de aprendizaje 2e-5
- Tamaño de lote 64
- Número de épocas de entrenamiento 8
- Compatible con HuggingFace Trainer
Casos de uso
- Clasificación de texto
- Análisis de sentimientos en redes sociales
- Detección de emociones en texto