bert-large-uncased-whole-word-masking-finetuned-intel-oneapi-llm-dataset

WaRKiD
Pregunta y respuesta

Este modelo es una versión ajustada del bert-large-uncased-whole-word-masking-finetuned-squad en un conjunto de datos desconocido. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida de entrenamiento: 2.3381, Precisión de Logits finales de entrenamiento: 0.4801, Precisión de Logits iniciales de entrenamiento: 0.4324, Pérdida de validación: 2.1970, Precisión de Logits finales de validación: 0.5132, Precisión de Logits iniciales de validación: 0.4554, y fue entrenado por 1 época.

Como usar

Más información necesaria

Funcionalidades

Transformers 4.34.0
TensorFlow 2.12.0
Datasets 2.14.5
Tokenizers 0.14.0

Casos de uso

Más información necesaria