bhadresh-savani/roberta-base-emotion
bhadresh-savani
Clasificación de texto
roberta es BERT con mejores elecciones de hiperparámetros, por lo que dijeron que es un BERT optimizado de manera robusta durante el preentrenamiento. roberta-base afinado en el conjunto de datos de emociones utilizando el HuggingFace Trainer con los siguientes hiperparámetros: tasa de aprendizaje 2e-5, tamaño del lote 64, épocas de entrenamiento 8.
Como usar
from transformers import pipeline
classifier = pipeline("text-classification",model='bhadresh-savani/roberta-base-emotion', return_all_scores=True)
prediction = classifier("I love using transformers. The best part is wide range of support and its easy to use")
print(prediction)
Output:
[[
{'label': 'sadness', 'score': 0.002281982684507966},
{'label': 'joy', 'score': 0.9726489186286926},
{'label': 'love', 'score': 0.021365027874708176},
{'label': 'anger', 'score': 0.0026395076420158148},
{'label': 'fear', 'score': 0.0007162453257478774},
{'label': 'surprise', 'score': 0.0003483477921690792}
]]
Conjunto de datos: Análisis de sentimientos de Twitter.
Procedimiento de entrenamiento:
Colab Notebook
siga el cuaderno anterior cambiando el nombre del modelo a roberta
Funcionalidades
- Clasificación de texto
- Compatibilidad con Transformers
- Compatibilidad con PyTorch
- Compatibilidad con TensorFlow
- Compatibilidad con JAX
- Compatibilidad con Safetensors
- Basado en RoBERTa
- Afinado específicamente para el conjunto de datos de emociones
Casos de uso
- Clasificación del sentimiento de los Tweets
- Análisis de emociones en texto
- Evaluación de mensajes para determinar emociones específicas