bert-large-uncased-cola

yoshitomo-matsubara
Clasificación de texto

Modelo bert-large-uncased ajustado en el conjunto de datos CoLA, utilizando torchdistill y Google Colab. Los hiperparámetros son los mismos que en el ejemplo de Hugging Face y/o el artículo de BERT, y la configuración de entrenamiento (incluidos los hiperparámetros) está disponible aquí. Envié archivos de predicción al ranking GLUE, y la puntuación general de GLUE fue de 80.2. Yoshitomo Matsubara: "torchdistill Meets Hugging Face Libraries for Reproducible, Coding-Free Deep Learning Studies: A Case Study on NLP" en el taller EMNLP 2023 para Software de Código Abierto de Procesamiento del Lenguaje Natural (NLP-OSS)

Como usar

# Ajuste en el conjunto de datos CoLA utilizando torchdistill y Google Colab.
# Los hiperparámetros y la configuración de entrenamiento están disponibles aquí.
# Puntuación GLUE general: 80.2
# Enviado al ranking GLUE.

Funcionalidades

Clasificación de texto
Transformers
PyTorch
cola
bert
glue
torchdistill

Casos de uso

Clasificación de sentimientos
Análisis de texto
Procesamiento del lenguaje natural