indic-mALBERT-squad-v2
rohitsroch
Pregunta y respuesta
Este modelo es una versión afinada no sensible a mayúsculas y minúsculas de indic-bert en el conjunto de datos squad_v2.
Como usar
Procedimiento de entrenamiento
Los siguientes hiperparámetros se usaron durante el entrenamiento:
- learning_rate: 3e-05
- train_batch_size: 32
- eval_batch_size: 32
- seed: 42
- optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 814
- num_epochs: 5.0
- mixed_precision_training: Native AMP
eval_HasAns_exact: 53.54251012145749
eval_HasAns_f1: 63.501893668646716
eval_HasAns_total: 5928
eval_NoAns_exact: 75.10513036164845
eval_NoAns_f1: 75.10513036164845
eval_NoAns_total: 5945
eval_exact: 64.3392571380443
eval_f1: 69.31181888888594
eval_runtime: 69.5054
eval_samples: 12000
eval_samples_per_second: 172.649
eval_steps_per_second: 5.395
eval_total: 11873
Funcionalidades
- Fine-tuned en el dataset squad_v2
- Capacidades de pregunta y respuesta
- Transformers
- PyTorch
- Safetensors
- Generated from Trainer
- Compatibilidad con Inferencia en Endpoints
Casos de uso
- Sistemas de preguntas y respuestas automáticas
- Asistencia en tareas de soporte técnico
- Implementación en aplicaciones de AI impulsadas por voz