bert-finetuned-Mode3A

Naima12
Pregunta y respuesta

Este modelo es una versión ajustada de Naima12/bert-finetuned-Mode2A en el dataset None. A continuación se proporciona información adicional sobre el modelo.

Como usar

El modelo se entrenó usando los siguientes hiperparámetros:

  • learning_rate: 2e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
  • lr_scheduler_type: lineal
  • num_epochs: 10
  • mixed_precision_training: AMP Nativo

Frameworks utilizados:

  • Transformers 4.41.2
  • Pytorch 2.3.0+cu121
  • Datasets 2.20.0
  • Tokenizers 0.19.1

Para ejecutar la inferencia de este modelo, se puede utilizar la API de Inferencia para funciones de respuesta a preguntas. Sin embargo, actualmente, este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (Serverless), por lo que se recomienda aumentar su visibilidad social o desplegarlo en Endpoints de Inferencia dedicados.

Funcionalidades

Respuesta a preguntas
Basado en Transformers
Compatible con Safetensors

Casos de uso

Respuesta a preguntas en tiempo real
Análisis de textos
Asistentes virtuales