autoevaluate/extractive-question-answering

autoevaluate
Pregunta y respuesta

Este modelo es una versión afinada de distilbert-base-uncased en el conjunto de datos SQuAD. Logra los siguientes resultados en el conjunto de evaluación: exact_match: 72.95175023651845, f1: 81.85552166092225, latency_in_seconds: 0.008616470915042614, samples_per_second: 116.05679516125359, total_time_in_seconds: 91.07609757200044.

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 1

Resultados del entrenamiento:

Training Loss
Epoch
Step
Validation Loss
1.263
1.0
5533
1.2169

Versiones del framework:

Transformers 4.19.2
Pytorch 1.11.0+cu113
Datasets 2.2.2
Tokenizers 0.12.1

Funcionalidades

Responde preguntas extractivas
Utiliza Transformadores
Implementado con PyTorch
Soporte para TensorBoard
Generado desde Trainer
Puntos de inferencia

Casos de uso

Responder preguntas basadas en texto
Mejora de la eficiencia de búsqueda en bases de datos de documentos