bert-large-uncased-whole-word-masking-squad2-train-data-unmodified
mdzrg
Pregunta y respuesta
Este modelo es una versión afinada de deepset/bert-large-uncased-whole-word-masking-squad2 en el dataset None. Es un modelo de respuesta a preguntas basado en Transformers y usa TensorBoard y Safetensors. Generado desde Trainer.
Como usar
Información adicional necesaria.
Parámetros de entrenamiento
learning_rate: 3e-05
train_batch_size: 4
eval_batch_size: 4
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 2
Versiones del framework
Transformers 4.42.4
Pytorch 2.3.1+cu121
Datasets 2.20.0
Tokenizers 0.19.1
Tamaño del modelo
334M parámetros
Tipo de tensor: F32
API de inferencia
Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad en redes sociales y vuelva a comprobar más tarde, o despliegue en Endpoints de Inferencia (dedicado) en su lugar.
Funcionalidades
- Respuesta a preguntas
- Transformers
- TensorBoard
- Safetensors
Casos de uso
- Respuesta a preguntas en textos no etiquetados
- Aplicaciones basadas en procesamiento de lenguaje natural