bert-base-uncased finetuned on MNLI

ishan
Clasificación de texto

Utilizamos el modelo preentrenado de bert-base-uncased y lo afinamos en el conjunto de datos MultiNLI. Los parámetros de entrenamiento se mantuvieron igual que en Devlin et al., 2019 (tasa de aprendizaje = 2e-5, épocas de entrenamiento = 3, longitud máxima de secuencia = 128 y tamaño de lote = 32).

Como usar

Este modelo aún no tiene suficiente actividad para ser implementado en la API de inferencia (sin servidor). Aumenta su visibilidad social y vuelve a verificar más tarde, o en su lugar, impleméntalo en Puntos de Inferencia (dedicados).

Funcionalidades

Clasificación de texto
Transformadores
PyTorch
JAX
MNLI
Inglés

Casos de uso

Clasificación y análisis de texto en inglés
Evaluación de coherencia textual segmentada en casos coincidentes y no coincidentes