indic-mALBERT-squad-v2

rohitsroch
Pregunta y respuesta

Este modelo es una versión afinada no sensible a mayúsculas y minúsculas de indic-bert en el conjunto de datos squad_v2.

Como usar

Procedimiento de entrenamiento

Los siguientes hiperparámetros se usaron durante el entrenamiento:

- learning_rate: 3e-05
- train_batch_size: 32
- eval_batch_size: 32
- seed: 42
- optimizer: Adam con betas=(0.9, 0.999) y epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 814
- num_epochs: 5.0
- mixed_precision_training: Native AMP

eval_HasAns_exact: 53.54251012145749 eval_HasAns_f1: 63.501893668646716 eval_HasAns_total: 5928 eval_NoAns_exact: 75.10513036164845 eval_NoAns_f1: 75.10513036164845 eval_NoAns_total: 5945 eval_exact: 64.3392571380443 eval_f1: 69.31181888888594 eval_runtime: 69.5054 eval_samples: 12000 eval_samples_per_second: 172.649 eval_steps_per_second: 5.395 eval_total: 11873

Funcionalidades

Fine-tuned en el dataset squad_v2
Capacidades de pregunta y respuesta
Transformers
PyTorch
Safetensors
Generated from Trainer
Compatibilidad con Inferencia en Endpoints

Casos de uso

Sistemas de preguntas y respuestas automáticas
Asistencia en tareas de soporte técnico
Implementación en aplicaciones de AI impulsadas por voz