bhadresh-savani/roberta-base-emotion

bhadresh-savani
Clasificación de texto

roberta es BERT con mejores elecciones de hiperparámetros, por lo que dijeron que es un BERT optimizado de manera robusta durante el preentrenamiento. roberta-base afinado en el conjunto de datos de emociones utilizando el HuggingFace Trainer con los siguientes hiperparámetros: tasa de aprendizaje 2e-5, tamaño del lote 64, épocas de entrenamiento 8.

Como usar

from transformers import pipeline
classifier = pipeline("text-classification",model='bhadresh-savani/roberta-base-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use")
print(prediction)
Output:
[[
{'label': 'sadness', 'score': 0.002281982684507966},
{'label': 'joy', 'score': 0.9726489186286926},
{'label': 'love', 'score': 0.021365027874708176},
{'label': 'anger', 'score': 0.0026395076420158148},
{'label': 'fear', 'score': 0.0007162453257478774},
{'label': 'surprise', 'score': 0.0003483477921690792}
]]

Conjunto de datos: Análisis de sentimientos de Twitter.

Procedimiento de entrenamiento: Colab Notebook siga el cuaderno anterior cambiando el nombre del modelo a roberta

Funcionalidades

Clasificación de texto
Compatibilidad con Transformers
Compatibilidad con PyTorch
Compatibilidad con TensorFlow
Compatibilidad con JAX
Compatibilidad con Safetensors
Basado en RoBERTa
Afinado específicamente para el conjunto de datos de emociones

Casos de uso

Clasificación del sentimiento de los Tweets
Análisis de emociones en texto
Evaluación de mensajes para determinar emociones específicas