mrm8488/bert-tiny-finetuned-enron-spam-detection
mrm8488
Clasificación de texto
Este modelo es una versión afinada de google/bert_uncased_L-2_H-128_A-2 (también conocido como BERT-Tiny) en SetFit/enron_spam para la tarea de detección de spam. El modelo logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0593, Precisión: 0.9851, Recall: 0.9871, Exactitud: 0.986, F1: 0.9861.
Como usar
Para usar este modelo, puedes consultar el repositorio en Hugging Face. A continuación se muestran los hiperparámetros utilizados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 32
seed: 42
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 4
Funcionalidades
- Clasificación de texto
- Transformadores (Transformers)
- PyTorch
- TensorBoard
- Entrenado en SetFit/enron_spam con la arquitectura BERT-Tiny
Casos de uso
- Detección de spam en correos electrónicos
- Clasificación de mensajes como spam o no spam