bartlatest
Shubham09
Pregunta y respuesta
Este modelo es una versión ajustada del modelo facebook/bart-large en un conjunto de datos desconocido. lográndose los siguientes resultados en el conjunto de evaluación: Pérdida: 5.7317
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
- Tasa de aprendizaje: 1e-05
- Tamaño de lote de entrenamiento: 1
- Tamaño de lote de evaluación: 1
- Semilla: 42
- Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- Tipo de programador de tasa de aprendizaje: lineal
- Número de épocas: 3.0
Resultando en las siguientes pérdidas durante el entrenamiento:
| Pérdida de entrenamiento |
|--------------------------|
| Época | Paso | Pérdida de validación |
|-------|------|----------------------|
| No log | 1.0 | 7 | 5.4678 |
| No log | 2.0 | 14 | 5.6403 |
| No log | 3.0 | 21 | 5.7317 |
Funcionalidades
- Respuesta a preguntas
- Transformers
- PyTorch
- TensorBoard
- Generado con Trainer
- Compatible con Endpoints
- Licencia: apache-2.0
Casos de uso
- Responder preguntas de usuarios basadas en contexto
- Mejorar sistemas de atención al cliente automatizados
- Desarrollar chatbots inteligentes con capacidad de comprensión de texto
- Aplicaciones en análisis de texto y comprensión de lenguaje natural