SPBERT MLM (Inicializado)

razent
Pregunta y respuesta

SPBERT: Un preentrenamiento eficiente de BERT en consultas SPARQL para la respuesta a preguntas sobre gráficos de conocimiento. Autores: Hieu Tran, Long Phan, James Anibal, Binh T. Nguyen, Truong-Son Nguyen

Como usar

Para obtener más detalles, consulte nuestro repositorio de Github. Aquí hay un ejemplo en PyTorch:

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained('razent/spbert-mlm-base')
model = AutoModel.from_pretrained("razent/spbert-mlm-base")
text = "select * where brack_open var_a var_b var_c sep_dot brack_close"
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)

o en TensorFlow

from transformers import AutoTokenizer, TFAutoModel
tokenizer = AutoTokenizer.from_pretrained('razent/spbert-mlm-base')
model = TFAutoModel.from_pretrained("razent/spbert-mlm-base")
text = "select * where brack_open var_a var_b var_c sep_dot brack_close"
encoded_input = tokenizer(text, return_tensors='tf')
output = model(encoded_input)

Funcionalidades

Modelado de lenguaje enmascarado (MLM)
Soporte para PyTorch y TensorFlow
Capacidad de respuesta a preguntas
Preentrenamiento en consultas SPARQL
Transformadores

Casos de uso

Respuesta a preguntas sobre gráficos de conocimiento
Consultas en SPARQL
Sistemas de preguntas y respuestas basados en inferencia