bert-large-uncased-mrpc

yoshitomo-matsubara
Clasificación de texto

BERT large uncased afinado en el conjunto de datos MRPC, utilizando torchdistill y Google Colab. Los hiperparámetros son los mismos que en el ejemplo de Hugging Face y/o el artículo sobre BERT, y la configuración del entrenamiento (incluidos los hiperparámetros) está disponible aquí. Presenté archivos de predicciones a la tabla de clasificación GLUE, y la puntuación global de GLUE fue 80.2.

Como usar

# Uso del modelo bert-large-uncased-mrpc

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) todavía. Aumente su visibilidad social y vuelva a verificar más tarde o despliegue a los Puntos de Inferencia (dedicados) en su lugar.

Funcionalidades

Clasificación de texto
Transformadores
PyTorch
Safetensors
torchdistill

Casos de uso

Clasificación de texto en inglés
Evaluación de similitud de pares de oraciones
Competencia en la tabla de clasificación GLUE