distilbert-base-uncased-finetuned-sst2
winegarj
Clasificación de texto
Este modelo es una versión ajustada de distilbert-base-uncased en un conjunto de datos desconocido. No cuenta con suficiente actividad para ser desplegado aún en el API de Inferencia de Hugging Face.
Como usar
El siguiente modelo puede ser utilizado en aplicaciones de clasificación de texto. Resultados del entrenamiento:
Loss: 0.2823
Accuracy: 0.9083
Los hiperparámetros utilizados durante el entrenamiento fueron:
learning_rate: 2e-05
train_batch_size: 512
eval_batch_size: 512
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 5
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Safetensors
Casos de uso
- Clasificación de sentencias de texto
- Análisis de sentimientos
- Aplicaciones de procesamiento de lenguaje natural (NLP)