predictor absoluto de nocividad redteam
safepaca
Clasificación de texto
Este modelo es una versión ajustada de microsoft/deberta-v3-large en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 1.1197; Mse: 1.1197.
Como usar
Los siguientes hiperparámetros se usaron durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 8
eval_batch_size: 4
seed: 42
gradient_accumulation_steps: 4
total_train_batch_size: 32
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: constant
num_epochs: 1.0
Resultados del entrenamiento
- Pérdida de entrenamiento: 2.2203, Pérdida de validación: 1.8289, Mse: 1.8289
- Pérdida de entrenamiento: 1.8997, Pérdida de validación: 1.7516, Mse: 1.7516
- Pérdida de entrenamiento: 1.4082, Pérdida de validación: 1.3950, Mse: 1.3950
- Pérdida de entrenamiento: 1.5899, Pérdida de validación: 1.9590, Mse: 1.9590
- Pérdida de entrenamiento: 1.3633, Pérdida de validación: 1.3316, Mse: 1.3316
- Pérdida de entrenamiento: 1.3758, Pérdida de validación: 1.2860, Mse: 1.2860
- Pérdida de entrenamiento: 1.3339, Pérdida de validación: 1.2694, Mse: 1.2694
- Pérdida de entrenamiento: 1.2831, Pérdida de validación: 1.3048, Mse: 1.3048
- Pérdida de entrenamiento: 1.2928, Pérdida de validación: 1.2395, Mse: 1.2395
- Pérdida de entrenamiento: 1.2506, Pérdida de validación: 1.4315, Mse: 1.4315
- Pérdida de entrenamiento: 1.204, Pérdida de validación: 1.1596, Mse: 1.1596
- Pérdida de entrenamiento: 1.1749, Pérdida de validación: 1.1995, Mse: 1.1995
- Pérdida de entrenamiento: 1.134, Pérdida de validación: 1.3782, Mse: 1.3782
- Pérdida de entrenamiento: 1.3097, Pérdida de validación: 1.1867, Mse: 1.1867
- Pérdida de entrenamiento: 1.29, Pérdida de validación: 1.2024, Mse: 1.2024
- Pérdida de entrenamiento: 1.1575, Pérdida de validación: 1.1197, Mse: 1.1197
### Versiones de frameworks
* Transformers 4.30.1
* PyTorch 2.0.1+cu117
* Datasets 2.12.0
* Tokenizers 0.13.3
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Generado a partir de Trainer Inference Endpoints
Casos de uso
- Predicción de nocividad en textos