bart_medical_quad_model
smrynrz20
Pregunta y respuesta
Este modelo es una versión ajustada de facebook/bart-base en un conjunto de datos desconocido. Se utiliza principalmente para el 'cuestionamiento y respuesta'.
Como usar
Procedimiento de entrenamiento
Hiperparámetros de entrenamiento
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 3.7185140364032e-05
train_batch_size: 32
eval_batch_size: 32
seed: 42
gradient_accumulation_steps: 2
total_train_batch_size: 64
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
training_steps: 820
Resultados del entrenamiento
Training Loss
Epoch
Step
Validation Loss
0.0
0.1220
100
0.0000
0.0004
0.2439
200
0.0000
0.0
0.3659
300
0.0000
0.0004
0.4878
400
0.0000
0.0002
1.1091
500
0.0000
0.0
1.2311
600
0.0000
0.0001
1.3530
700
0.0000
0.0001
1.475
800
0.0000
Versiones del marco
Transformers 4.40.2
Pytorch 2.2.1+cu121
Datasets 2.19.1
Tokenizers 0.19.1
Funcionalidades
- Basado en facebook/bart-base
- Ajustado en un conjunto de datos desconocido
- Optimizado para el cuestionamiento y respuesta
- Compatibilidad con TensorBoard
- Soporte para Safetensors
- Generado a partir de Trainer
- Compatible con Inference Endpoints
Casos de uso
- Responder preguntas basadas en contextos específicos
- Procesamiento de texto en el campo médico
- Implementación en entornos con TensorBoard y Safetensors
- Uso en sistemas de respuesta a preguntas en tiempo real