intent-global

Onebu
Clasificación de texto

Este modelo es una versión afinada de roberta-base en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0883 Precisión: 0.9810 Exactitud: 0.9817 Recordatorio: 0.9810 F1: 0.9810

Como usar

Para utilizar este modelo, puedes seguir los siguientes parámetros de hiperentrenamiento: learning_rate: 1e-05 train_batch_size: 16 eval_batch_size: 16 seed: 42 optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08 lr_scheduler_type: linear num_epochs: 4

Funcionalidades

Clasificación de texto
Basado en roberta
Compatible con AutoTrain
Compatible con TensorBoard
Compatible con Safetensors
Disponible para endpoints de inferencia

Casos de uso

Clasificación de intenciones en textos
Análisis de sentimiento
Detección de temas