distilbert-base-uncased-emotion

bhadresh-savani
Clasificación de texto

Distilbert se crea con la destilación de conocimiento durante la fase de preentrenamiento, lo que reduce el tamaño de un modelo BERT en un 40%, mientras conserva el 97% de su comprensión del lenguaje. Es más pequeño y más rápido que Bert y cualquier otro modelo basado en Bert. Distilbert-base-uncased se ajustó en el conjunto de datos de emociones utilizando HuggingFace Trainer con los siguientes hiperparámetros: tasa de aprendizaje 2e-5, tamaño de lote 64, num_train_epochs=8.

Como usar

from transformers import pipeline
classifier = pipeline("text-classification",model='bhadresh-savani/distilbert-base-uncased-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use", )
print(prediction)
[
{'label': 'sadness', 'score': 0.0006792712374590337},
{'label': 'joy', 'score': 0.9959300756454468},
{'label': 'love', 'score': 0.0009452480007894337},
{'label': 'anger', 'score': 0.0018055217806249857},
{'label': 'fear', 'score': 0.00041110432357527316},
{'label': 'surprise', 'score': 0.0002288572577526793}
]

Funcionalidades

Reducción del tamaño del modelo en un 40%
Retención del 97% de la comprensión del lenguaje
Más pequeño y rápido que otros modelos basados en BERT
Ajustado en un conjunto de datos de emociones de Twitter

Casos de uso

Clasificación de emociones en textos de Twitter
Análisis de sentimientos
Detección de emociones en textos escritos