monologg/koelectra-base-finetuned-nsmc
monologg
Clasificación de texto
Este modelo es una versión ajustada de Koelectra-base para la clasificación de texto, específicamente entrenado en el conjunto de datos NSMC. Utiliza la arquitectura Transformers y PyTorch. El modelo tiene tamaño de 111M parámetros y tipo de tensor F32.
Como usar
Este modelo puede ser usado para clasificación de texto. Aún no está disponible en la API de Inferencia (sin servidor) debido a su baja actividad, pero puede ser desplegado en Puntos de Inferencia dedicados.
Funcionalidades
- Clasificación de texto
- Utiliza Transformers
- Basado en PyTorch
- Compatibilidad con safetensors
Casos de uso
- Clasificación de reseñas de productos
- Análisis de sentimiento en redes sociales
- Filtrado de comentarios en plataformas online