fraud_text_detection
austinb
Clasificación de texto
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos None. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.1112, Precisión: 0.9798. Más información necesaria sobre la descripción del modelo, los usos previstos y sus limitaciones, así como los datos de entrenamiento y evaluación.
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 2
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- ONNX
- distilbert
- Generado a partir de Trainer
- Endpoints de Inferencia
Casos de uso
- Detección de fraudes a través de texto