bert-large-uncased-mrpc
yoshitomo-matsubara
Clasificación de texto
BERT large uncased afinado en el conjunto de datos MRPC, utilizando torchdistill y Google Colab. Los hiperparámetros son los mismos que en el ejemplo de Hugging Face y/o el artículo sobre BERT, y la configuración del entrenamiento (incluidos los hiperparámetros) está disponible aquí. Presenté archivos de predicciones a la tabla de clasificación GLUE, y la puntuación global de GLUE fue 80.2.
Como usar
# Uso del modelo bert-large-uncased-mrpc
Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) todavía. Aumente su visibilidad social y vuelva a verificar más tarde o despliegue a los Puntos de Inferencia (dedicados) en su lugar.
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- Safetensors
- torchdistill
Casos de uso
- Clasificación de texto en inglés
- Evaluación de similitud de pares de oraciones
- Competencia en la tabla de clasificación GLUE