distilbert-base-uncased-finetuned-sst2

winegarj
Clasificación de texto

Este modelo es una versión ajustada de distilbert-base-uncased en un conjunto de datos desconocido. No cuenta con suficiente actividad para ser desplegado aún en el API de Inferencia de Hugging Face.

Como usar

El siguiente modelo puede ser utilizado en aplicaciones de clasificación de texto. Resultados del entrenamiento:

Loss: 0.2823
Accuracy: 0.9083

Los hiperparámetros utilizados durante el entrenamiento fueron:

learning_rate: 2e-05
train_batch_size: 512
eval_batch_size: 512
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 5

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Safetensors

Casos de uso

Clasificación de sentencias de texto
Análisis de sentimientos
Aplicaciones de procesamiento de lenguaje natural (NLP)