bhadresh-savani/bert-base-uncased-emotion

bhadresh-savani
Clasificación de texto

BERT es una arquitectura de codificador bidireccional de Transformer entrenada en el objetivo de modelado de lenguaje enmascarado (MLM). BERT-base-uncased se ha ajustado en el conjunto de datos de emoción utilizando el Trainer de HuggingFace con los siguientes parámetros de entrenamiento: tasa de aprendizaje de 2e-5, tamaño del lote de 64 y 8 épocas de entrenamiento.

Como usar

from transformers import pipeline
classifier = pipeline("text-classification", model='bhadresh-savani/bert-base-uncased-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use")
print(prediction)
output:
[[
{'label': 'sadness', 'score': 0.0005138228880241513},
{'label': 'joy', 'score': 0.9972520470619202},
{'label': 'love', 'score': 0.0007443308713845909},
{'label': 'anger', 'score': 0.0007404946954920888},
{'label': 'fear', 'score': 0.00032938539516180754},
{'label': 'surprise', 'score': 0.0004197491507511586}
]]

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorFlow
JAX
Safetensors
Emoción en inglés

Casos de uso

Análisis de emociones en texto
Detección de sentimientos en tweets
Clasificación de emociones en datos de redes sociales