Palak/albert-large-v2_squad-ov
helenai
Pregunta y respuesta
Este es el modelo Palak/albert-large-v2_squad convertido a OpenVINO, para inferencias aceleradas.
Como usar
Un ejemplo de cómo realizar inferencias con este modelo:
from optimum.intel.openvino import OVModelForQuestionAnswering
from transformers import AutoTokenizer, pipeline
# model_id debería establecerse en un directorio local o en un modelo disponible en el HuggingFace hub.
model_id = "helenai/Palak-albert-large-v2_squad-ov"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = OVModelForQuestionAnswering.from_pretrained(model_id)
pipe = pipeline("question-answering", model=model, tokenizer=tokenizer)
result = pipe("What is OpenVINO?", "OpenVINO es un marco que acelera la inferencia de aprendizaje profundo")
print(result)
Funcionalidades
- transformer
- openvino
- albert
- preguntas y respuestas
- compatible con endpoints de inferencia
- región: EE.UU.
Casos de uso
- Resolución de preguntas y respuestas.
- Aplicaciones donde se requiere inferencia acelerada.