gelectra-base-injection-pt_v1
JasperLS
Clasificación de texto
Modelo descontinuado - POR FAVOR USE UNA VERSIÓN MÁS NUEVA DE GELECTRA O DEBERTA. Este modelo es una versión ajustada de deepset/gelectra-base en un conjunto de datos de inyección de prompt cerrado. Clasifica prompts como inyecciones o preguntas legítimas. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.0163 Precisión: 1.0
Como usar
Procedimiento de entrenamiento
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3
Resultados de entrenamiento
No log
1.0
45
0.2042
0.9211
No log
2.0
90
0.0247
1.0
No log
3.0
135
0.0163
1.0
Versiones del framework
Transformers 4.27.4
Pytorch 2.0.0+cu118
Tokenizers 0.13.3
API de Inferencia
Este modelo aún no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor). Aumente su visibilidad social y vuelva a comprobar más tarde, o despliegue en los Puntos de Inferencia (dedicado) en su lugar.
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- TensorBoard
- Safetensors
- Generado a partir de Trainer
- Puntos finales de inferencia
Casos de uso
- Clasificación de prompts como inyecciones
- Clasificación de preguntas legítimas