roberta-base-squad2-distilled-small-cuad

QuangHuy54
Pregunta y respuesta

Este modelo es una versión afinada de 'deepset/roberta-base-squad2-distilled' en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.9965

Como usar

El siguiente modelo puede ser utilizado principalmente para el reconocimiento y la respuesta de preguntas.

Parámetros de entrenamiento

  • learning_rate: 2e-05
  • train_batch_size: 16
  • eval_batch_size: 16
  • seed: 42
  • Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • Tipo de scheduler: lineal
  • num_epochs: 3

Resultados de entrenamiento

sin log
1.0
282
2.9007

3.0578
2.0
564
2.9068

3.0578
3.0
846
2.9965

Versiones del framework

  • Transformers 4.30.2
  • Pytorch 2.0.1+cu118
  • Datasets 2.13.1
  • Tokenizers 0.13.3

Funcionalidades

Atención de preguntas
Compatibilidad con Transformers
Compatibilidad con PyTorch
Compatibilidad con TensorBoard
Generado desde Trainer
Compatibilidad con Inference Endpoints

Casos de uso

Atención automatizada de consultas en línea
Sistemas de tutoría inteligente
Asistentes virtuales para la atención al cliente
Búsqueda de información contextual en documentos largos