DavidAU/DistiLabelOrca-TinyLLama-1.1B-Q8_0-GGUF

DavidAU
Pregunta y respuesta

Este modelo fue convertido al formato GGUF desde eren23/DistiLabelOrca-TinyLLama-1.1B usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta de modelo original para más detalles sobre el modelo.

Como usar

Instalar llama.cpp a través de brew.

brew install ggerganov/ggerganov/llama.cpp

Invocar el servidor llama.cpp o la CLI. CLI:

llama-cli --hf-repo DavidAU/DistiLabelOrca-TinyLLama-1.1B-Q8_0-GGUF --model distilabelorca-tinyllama-1.1b.Q8_0.gguf -p "The meaning to life and the universe is"

Servidor:

llama-server --hf-repo DavidAU/DistiLabelOrca-TinyLLama-1.1B-Q8_0-GGUF --model distilabelorca-tinyllama-1.1b.Q8_0.gguf -c 2048

Nota: También puede usar este checkpoint directamente a través de los pasos de uso listados en el repositorio Llama.cpp.

git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make && ./main -m distilabelorca-tinyllama-1.1b.Q8_0.gguf -n 128

Funcionalidades

Pregunta y respuesta
Transformers
GGUF

Casos de uso

Responder preguntas
Desarrollar aplicaciones de inteligencia artificial
Implementaciones en puntos de inferencia dedicados