bert-base-uncased-emotion

nateraw
Clasificación de texto

Modelo bert-base-uncased ajustado con el conjunto de datos de emoción utilizando PyTorch Lightning. Longitud de secuencia 128, tasa de aprendizaje 2e-5, tamaño de lote 32, 2 GPU, 4 épocas.

Como usar

Se debe implementar mediante puntos finales de inferencia dedicados o aumentar su visibilidad social para su despliegue en la API de inferencia (sin servidor).

Funcionalidades

Clasificación de texto
Transformers
PyTorch
JAX
Análisis de emociones

Casos de uso

Análisis de emociones en textos