roberta-base-squad2-distilled-small-cuad
QuangHuy54
Pregunta y respuesta
Este modelo es una versión afinada de 'deepset/roberta-base-squad2-distilled' en el conjunto de datos None. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 2.9965
Como usar
El siguiente modelo puede ser utilizado principalmente para el reconocimiento y la respuesta de preguntas.
Parámetros de entrenamiento
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 42
- Optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
- Tipo de scheduler: lineal
num_epochs: 3
Resultados de entrenamiento
sin log
1.0
282
2.9007
3.0578
2.0
564
2.9068
3.0578
3.0
846
2.9965
Versiones del framework
- Transformers 4.30.2
- Pytorch 2.0.1+cu118
- Datasets 2.13.1
- Tokenizers 0.13.3
Funcionalidades
- Atención de preguntas
- Compatibilidad con Transformers
- Compatibilidad con PyTorch
- Compatibilidad con TensorBoard
- Generado desde Trainer
- Compatibilidad con Inference Endpoints
Casos de uso
- Atención automatizada de consultas en línea
- Sistemas de tutoría inteligente
- Asistentes virtuales para la atención al cliente
- Búsqueda de información contextual en documentos largos