autoevaluate/extractive-question-answering
autoevaluate
Pregunta y respuesta
Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos SQuAD. Logra los siguientes resultados en el conjunto de evaluación: exact_match: 72.95175023651845, f1: 81.85552166092225, latency_in_seconds: 0.008616470915042614, samples_per_second: 116.05679516125359, total_time_in_seconds: 91.07609757200044.
Como usar
Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1
Resultados del entrenamiento:
Training Loss
Epoch
Step
Validation Loss
1.263
1.0
5533
1.2169
Versiones del framework:
Transformers 4.19.2
Pytorch 1.11.0+cu113
Datasets 2.2.2
Tokenizers 0.12.1
Funcionalidades
- Responde preguntas extractivas
- Utiliza Transformadores
- Implementado con PyTorch
- Soporte para TensorBoard
- Generado desde Trainer
- Puntos de inferencia
Casos de uso
- Responder preguntas basadas en texto
- Mejora de la eficiencia de búsqueda en bases de datos de documentos