distilbert-base-multilingual-cased-finetuned-squad

monakth
Pregunta y respuesta

Este modelo es una versión afinada de distilbert-base-multilingual-cased en el conjunto de datos squad. Este modelo es un modelo de transformers, específicamente de tipo DistilBERT, que ha sido ajustado con el conjunto de datos SQuAD para realizar tareas de respuesta a preguntas. Utiliza PyTorch y puede ser monitorizado con TensorBoard.

Como usar

Los siguientes hiperparámetros fueron utilizados durante el entrenamiento:

learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3

Métricas de entrenamiento:

Pérdida de entrenamiento
Época
Paso
Pérdida de validación

1.2983
1.0
5555
1.2202

1.0252
2.0
11110
1.1583

0.8078
3.0
16665
1.1954

Versiones de frameworks utilizados:

Transformers 4.22.1
Pytorch 1.12.1+cu113
Datasets 2.5.1
Tokenizers 0.12.1

Funcionalidades

Respuesta a preguntas
Transformers
PyTorch
TensorBoard
Generado desde Trainer
Puntos de inferencia

Casos de uso

Respuesta a preguntas basada en texto
Búsqueda de información en texto
Asistentes virtuales
Interfaces de usuario interactivas