bartlatest

Shubham09
Pregunta y respuesta

Este modelo es una versión ajustada del modelo facebook/bart-large en un conjunto de datos desconocido. lográndose los siguientes resultados en el conjunto de evaluación: Pérdida: 5.7317

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

- Tasa de aprendizaje: 1e-05
- Tamaño de lote de entrenamiento: 1
- Tamaño de lote de evaluación: 1
- Semilla: 42
- Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- Tipo de programador de tasa de aprendizaje: lineal
- Número de épocas: 3.0

Resultando en las siguientes pérdidas durante el entrenamiento:

| Pérdida de entrenamiento |
|--------------------------|
| Época | Paso | Pérdida de validación |
|-------|------|----------------------|
| No log | 1.0 | 7 | 5.4678 |
| No log | 2.0 | 14 | 5.6403 |
| No log | 3.0 | 21 | 5.7317 |

Funcionalidades

Respuesta a preguntas
Transformers
PyTorch
TensorBoard
Generado con Trainer
Compatible con Endpoints
Licencia: apache-2.0

Casos de uso

Responder preguntas de usuarios basadas en contexto
Mejorar sistemas de atención al cliente automatizados
Desarrollar chatbots inteligentes con capacidad de comprensión de texto
Aplicaciones en análisis de texto y comprensión de lenguaje natural