Bert-Base-Uncased-Go-Emotion
bhadresh-savani
Clasificación de texto
Bert-Base-Uncased-Go-Emotion es un modelo de clasificación de texto basado en el transformador BERT. Este modelo ha sido entrenado utilizando el conjunto de datos go_emotions, proveniente de google-research-datasets/go_emotions. El modelo está diseñado para clasificar emociones en textos.
Como usar
Para usar este modelo, puedes cargarlo utilizando la biblioteca Transformers de Hugging Face. Consulta el siguiente cuaderno de Colab para más detalles: [Notebook]('Colab Notebook: Notebook')
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_name = 'bhadresh-savani/bert-base-go-emotion'
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
Funcionalidades
- Número de ejemplos: 169208
- Número de épocas: 3
- Tamaño de lote instantáneo por dispositivo: 16
- Tamaño total del lote de entrenamiento (con paralelo, distribuido y acumulación): 16
- Pasos de acumulación de gradiente: 1
- Total de pasos de optimización: 31728
Casos de uso
- Detección de emociones en el texto
- Clasificación de textos por emociones
- Desarrollo de aplicaciones emocionales basadas en texto