bert-base-uncased finetuned on MNLI
ishan
Clasificación de texto
Utilizamos el modelo preentrenado de bert-base-uncased y lo afinamos en el conjunto de datos MultiNLI. Los parámetros de entrenamiento se mantuvieron igual que en Devlin et al., 2019 (tasa de aprendizaje = 2e-5, épocas de entrenamiento = 3, longitud máxima de secuencia = 128 y tamaño de lote = 32).
Como usar
Este modelo aún no tiene suficiente actividad para ser implementado en la API de inferencia (sin servidor). Aumenta su visibilidad social y vuelve a verificar más tarde, o en su lugar, impleméntalo en Puntos de Inferencia (dedicados).
Funcionalidades
- Clasificación de texto
- Transformadores
- PyTorch
- JAX
- MNLI
- Inglés
Casos de uso
- Clasificación y análisis de texto en inglés
- Evaluación de coherencia textual segmentada en casos coincidentes y no coincidentes