monologg/koelectra-base-finetuned-nsmc

monologg
Clasificación de texto

Este modelo es una versión ajustada de Koelectra-base para la clasificación de texto, específicamente entrenado en el conjunto de datos NSMC. Utiliza la arquitectura Transformers y PyTorch. El modelo tiene tamaño de 111M parámetros y tipo de tensor F32.

Como usar

Este modelo puede ser usado para clasificación de texto. Aún no está disponible en la API de Inferencia (sin servidor) debido a su baja actividad, pero puede ser desplegado en Puntos de Inferencia dedicados.

Funcionalidades

Clasificación de texto
Utiliza Transformers
Basado en PyTorch
Compatibilidad con safetensors

Casos de uso

Clasificación de reseñas de productos
Análisis de sentimiento en redes sociales
Filtrado de comentarios en plataformas online