distilbert-base-uncased-emotion
bhadresh-savani
Clasificación de texto
Distilbert se crea con la destilación de conocimiento durante la fase de preentrenamiento, lo que reduce el tamaño de un modelo BERT en un 40%, mientras conserva el 97% de su comprensión del lenguaje. Es más pequeño y más rápido que Bert y cualquier otro modelo basado en Bert. Distilbert-base-uncased se ajustó en el conjunto de datos de emociones utilizando HuggingFace Trainer con los siguientes hiperparámetros: tasa de aprendizaje 2e-5, tamaño de lote 64, num_train_epochs=8.
Como usar
from transformers import pipeline
classifier = pipeline("text-classification",model='bhadresh-savani/distilbert-base-uncased-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use", )
print(prediction)
[
{'label': 'sadness', 'score': 0.0006792712374590337},
{'label': 'joy', 'score': 0.9959300756454468},
{'label': 'love', 'score': 0.0009452480007894337},
{'label': 'anger', 'score': 0.0018055217806249857},
{'label': 'fear', 'score': 0.00041110432357527316},
{'label': 'surprise', 'score': 0.0002288572577526793}
]
Funcionalidades
- Reducción del tamaño del modelo en un 40%
- Retención del 97% de la comprensión del lenguaje
- Más pequeño y rápido que otros modelos basados en BERT
- Ajustado en un conjunto de datos de emociones de Twitter
Casos de uso
- Clasificación de emociones en textos de Twitter
- Análisis de sentimientos
- Detección de emociones en textos escritos