Palak/albert-large-v2_squad-ov

helenai
Pregunta y respuesta

Este es el modelo Palak/albert-large-v2_squad convertido a OpenVINO, para inferencias aceleradas.

Como usar

Un ejemplo de cómo realizar inferencias con este modelo:

from optimum.intel.openvino import OVModelForQuestionAnswering
from transformers import AutoTokenizer, pipeline

# model_id debería establecerse en un directorio local o en un modelo disponible en el HuggingFace hub.
model_id = "helenai/Palak-albert-large-v2_squad-ov"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = OVModelForQuestionAnswering.from_pretrained(model_id)
pipe = pipeline("question-answering", model=model, tokenizer=tokenizer)
result = pipe("What is OpenVINO?", "OpenVINO es un marco que acelera la inferencia de aprendizaje profundo")
print(result)

Funcionalidades

transformer
openvino
albert
preguntas y respuestas
compatible con endpoints de inferencia
región: EE.UU.

Casos de uso

Resolución de preguntas y respuestas.
Aplicaciones donde se requiere inferencia acelerada.