distilbert-base-uncased-finetuned-covdistilbert

juliusco
Pregunta y respuesta

Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos covid_qa_deepset. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4844

Como usar

El modelo no tiene suficiente actividad para ser implementado en la API de Inferencia (sin servidor) aún.

Entrenamiento:

# Hiperparámetros usados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 128
eval_batch_size: 128
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 5

Funcionalidades

Versión ajustada de distilbert-base-uncased
Entrenado en el conjunto de datos covid_qa_deepset
Resultados de evaluación: Pérdida: 0.4844

Casos de uso

Respuesta a preguntas relacionadas con COVID-19
Implementación en sistemas de atención al cliente
Asistente virtual para información médica