bert-large-uncased-whole-word-masking-squad2-train-data-unmodified

mdzrg
Pregunta y respuesta

Este modelo es una versión afinada de deepset/bert-large-uncased-whole-word-masking-squad2 en el dataset None. Es un modelo de respuesta a preguntas basado en Transformers y usa TensorBoard y Safetensors. Generado desde Trainer.

Como usar

Información adicional necesaria.

Parámetros de entrenamiento

learning_rate: 3e-05
train_batch_size: 4
eval_batch_size: 4
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 2

Versiones del framework

Transformers 4.42.4
Pytorch 2.3.1+cu121
Datasets 2.20.0
Tokenizers 0.19.1

Tamaño del modelo

334M parámetros
Tipo de tensor: F32

API de inferencia

Este modelo no tiene suficiente actividad para ser desplegado en la API de Inferencia (sin servidor) aún. Aumente su visibilidad en redes sociales y vuelva a comprobar más tarde, o despliegue en Endpoints de Inferencia (dedicado) en su lugar.

Funcionalidades

Respuesta a preguntas
Transformers
TensorBoard
Safetensors

Casos de uso

Respuesta a preguntas en textos no etiquetados
Aplicaciones basadas en procesamiento de lenguaje natural