bert-base-uncased-emotion
nateraw
Clasificación de texto
Modelo bert-base-uncased ajustado con el conjunto de datos de emoción utilizando PyTorch Lightning. Longitud de secuencia 128, tasa de aprendizaje 2e-5, tamaño de lote 32, 2 GPU, 4 épocas.
Como usar
Se debe implementar mediante puntos finales de inferencia dedicados o aumentar su visibilidad social para su despliegue en la API de inferencia (sin servidor).
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- JAX
- Análisis de emociones
Casos de uso
- Análisis de emociones en textos