bert-large-uncased-whole-word-masking-finetuned-intel-oneapi-llm-dataset
WaRKiD
Pregunta y respuesta
Este modelo es una versión ajustada del bert-large-uncased-whole-word-masking-finetuned-squad en un conjunto de datos desconocido. Alcanzó los siguientes resultados en el conjunto de evaluación: Pérdida de entrenamiento: 2.3381, Precisión de Logits finales de entrenamiento: 0.4801, Precisión de Logits iniciales de entrenamiento: 0.4324, Pérdida de validación: 2.1970, Precisión de Logits finales de validación: 0.5132, Precisión de Logits iniciales de validación: 0.4554, y fue entrenado por 1 época.
Como usar
Más información necesaria
Funcionalidades
- Transformers 4.34.0
- TensorFlow 2.12.0
- Datasets 2.14.5
- Tokenizers 0.14.0
Casos de uso
- Más información necesaria