SPBERT MLM (Inicializado)
razent
Pregunta y respuesta
SPBERT: Un preentrenamiento eficiente de BERT en consultas SPARQL para la respuesta a preguntas sobre gráficos de conocimiento. Autores: Hieu Tran, Long Phan, James Anibal, Binh T. Nguyen, Truong-Son Nguyen
Como usar
Para obtener más detalles, consulte nuestro repositorio de Github. Aquí hay un ejemplo en PyTorch:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained('razent/spbert-mlm-base')
model = AutoModel.from_pretrained("razent/spbert-mlm-base")
text = "select * where brack_open var_a var_b var_c sep_dot brack_close"
encoded_input = tokenizer(text, return_tensors='pt')
output = model(**encoded_input)
o en TensorFlow
from transformers import AutoTokenizer, TFAutoModel
tokenizer = AutoTokenizer.from_pretrained('razent/spbert-mlm-base')
model = TFAutoModel.from_pretrained("razent/spbert-mlm-base")
text = "select * where brack_open var_a var_b var_c sep_dot brack_close"
encoded_input = tokenizer(text, return_tensors='tf')
output = model(encoded_input)
Funcionalidades
- Modelado de lenguaje enmascarado (MLM)
- Soporte para PyTorch y TensorFlow
- Capacidad de respuesta a preguntas
- Preentrenamiento en consultas SPARQL
- Transformadores
Casos de uso
- Respuesta a preguntas sobre gráficos de conocimiento
- Consultas en SPARQL
- Sistemas de preguntas y respuestas basados en inferencia