distilbert-base-uncased-finetuned-covdistilbert
juliusco
Pregunta y respuesta
Este modelo es una versión ajustada de distilbert-base-uncased en el conjunto de datos covid_qa_deepset. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida: 0.4844
Como usar
El modelo no tiene suficiente actividad para ser implementado en la API de Inferencia (sin servidor) aún.
Entrenamiento:
# Hiperparámetros usados durante el entrenamiento:
learning_rate: 2e-05
train_batch_size: 128
eval_batch_size: 128
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 5
Funcionalidades
- Versión ajustada de distilbert-base-uncased
- Entrenado en el conjunto de datos covid_qa_deepset
- Resultados de evaluación: Pérdida: 0.4844
Casos de uso
- Respuesta a preguntas relacionadas con COVID-19
- Implementación en sistemas de atención al cliente
- Asistente virtual para información médica