bhadresh-savani/bert-base-uncased-emotion
bhadresh-savani
Clasificación de texto
BERT es una arquitectura de codificador bidireccional de Transformer entrenada en el objetivo de modelado de lenguaje enmascarado (MLM). BERT-base-uncased se ha ajustado en el conjunto de datos de emoción utilizando el Trainer de HuggingFace con los siguientes parámetros de entrenamiento: tasa de aprendizaje de 2e-5, tamaño del lote de 64 y 8 épocas de entrenamiento.
Como usar
from transformers import pipeline
classifier = pipeline("text-classification", model='bhadresh-savani/bert-base-uncased-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use")
print(prediction)
output:
[[
{'label': 'sadness', 'score': 0.0005138228880241513},
{'label': 'joy', 'score': 0.9972520470619202},
{'label': 'love', 'score': 0.0007443308713845909},
{'label': 'anger', 'score': 0.0007404946954920888},
{'label': 'fear', 'score': 0.00032938539516180754},
{'label': 'surprise', 'score': 0.0004197491507511586}
]]
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorFlow
- JAX
- Safetensors
- Emoción en inglés
Casos de uso
- Análisis de emociones en texto
- Detección de sentimientos en tweets
- Clasificación de emociones en datos de redes sociales