bert-finetuned-Mode3A
Naima12
Pregunta y respuesta
Este modelo es una versión ajustada de Naima12/bert-finetuned-Mode2A en el dataset None. A continuación se proporciona información adicional sobre el modelo.
Como usar
El modelo se entrenó usando los siguientes hiperparámetros:
- learning_rate: 2e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
- lr_scheduler_type: lineal
- num_epochs: 10
- mixed_precision_training: AMP Nativo
Frameworks utilizados:
- Transformers 4.41.2
- Pytorch 2.3.0+cu121
- Datasets 2.20.0
- Tokenizers 0.19.1
Para ejecutar la inferencia de este modelo, se puede utilizar la API de Inferencia para funciones de respuesta a preguntas. Sin embargo, actualmente, este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (Serverless), por lo que se recomienda aumentar su visibilidad social o desplegarlo en Endpoints de Inferencia dedicados.
Funcionalidades
- Respuesta a preguntas
- Basado en Transformers
- Compatible con Safetensors
Casos de uso
- Respuesta a preguntas en tiempo real
- Análisis de textos
- Asistentes virtuales