SPBERT MLM (Scratch)

razent
Pregunta y respuesta

SPBERT: Un preentrenamiento eficiente de BERT en consultas SPARQL para la respuesta a preguntas sobre gráficos de conocimiento. Los autores del artículo son Hieu Tran, Long Phan, James Anibal, Binh T. Nguyen y Truong-Son Nguyen. El modelo está implementado en PyTorch y TensorFlow y es utilizado para tareas de respuesta automática a preguntas usando gráficos de conocimiento.

Como usar

Para más detalles, consulte nuestro repositorio de Github. Aquí hay un ejemplo en PyTorch:

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained('razent/spbert-mlm-zero')
model = AutoModel.from_pretrained('razent/spbert-mlm-zero')
text = 'select * where brack_open var_a var_b var_c sep_dot brack_close'
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)

O utilizando TensorFlow:

from transformers import AutoTokenizer, TFAutoModel
tokenizer = AutoTokenizer.from_pretrained('razent/spbert-mlm-zero')
model = TFAutoModel.from_pretrained('razent/spbert-mlm-zero')
text = 'select * where brack_open var_a var_b var_c sep_dot brack_close'
encoded_input = tokenizer(text, return_tensors='tf')
output = model(encoded_input)

Citation:

@misc{tran2021spbert,
title={SPBERT: An Efficient Pre-training BERT on SPARQL Queries for Question Answering over Knowledge Graphs},
author={Hieu Tran and Long Phan and James Anibal and Binh T. Nguyen and Truong-Son Nguyen},
year={2021},
eprint={2106.09997},
archivePrefix={arXiv},
primaryClass={cs.CL}
}

Funcionalidades

Preentrenamiento eficiente de BERT
Optimizado para consultas SPARQL
Implementación en PyTorch y TensorFlow
Respuesta a preguntas sobre gráficos de conocimiento

Casos de uso

Responder preguntas sobre gráficos de conocimiento
Procesar consultas SPARQL