distilbert-base-uncased-finetuned-cola

sgugger
Clasificación de texto

Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos glue. Logra los siguientes resultados en el conjunto de evaluación: - Pérdida: 0.7572 - Correlación de Matthews: 0.5159

Como usar

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad social y vuelva a comprobar más tarde, o despliegue en los Puntos de Inferencia (dedicados) en su lugar.

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam with betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 5

Funcionalidades

Clasificación de texto
Transformers
PyTorch
TensorBoard
Entrenado con glue dataset
Generado a partir de Trainer

Casos de uso

Clasificación de textos
Evaluación de afinidad de palabras