BART_subjqa_model_v3

Chetna19
Pregunta y respuesta

Este modelo es una versión afinada de valhalla/bart-large-finetuned-squadv1 en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 8.2682. Más información necesaria en varias secciones.

Como usar

Hiperparámetros de Entrenamiento

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

  • learning_rate: 2e-05
  • train_batch_size: 32
  • eval_batch_size: 32
  • seed: 42
  • optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 5

Resultados de Entrenamiento

| Pérdida de Entrenamiento | Época | Paso | Pérdida de Validación | |---|---|---|---| | No hay log | 1.0 | 103 | 7.2154 | | No hay log | 2.0 | 206 | 7.3315 | | No hay log | 3.0 | 309 | 7.5881 | | No hay log | 4.0 | 412 | 8.0160 | | 0.0572 | 5.0 | 515 | 8.2682 |

Versiones del Framework

  • Transformers 4.28.0
  • Pytorch 1.13.0a0+d321be6
  • Datasets 2.12.0
  • Tokenizers 0.13.3

Funcionalidades

Afinado a partir de valhalla/bart-large-finetuned-squadv1
Pérdida de 8.2682 en el conjunto de evaluación
Compatible con PyTorch, TensorBoard y Transformers
Generado a partir de Trainer
Compatibilidad con Inferencia en Endpoints
Region: US

Casos de uso

Responder preguntas basadas en un texto dado
Aplicaciones de respuesta a preguntas en NLP
Integración con endpoints de inferencia para despliegues dedicados