Llama3-Aloe-8B-Alpha-Q6_K-GGUF

hansmueller464
Pregunta y respuesta

Este modelo fue convertido al formato GGUF desde HPAI-BSC/Llama3-Aloe-8B-Alpha usando llama.cpp a través del espacio de GGUF-my-repo de ggml.ai. Consulte la tarjeta de modelo original para obtener más detalles sobre el modelo.

Como usar

Instalar llama.cpp a través de brew.

brew install ggerganov/ggerganov/llama.cpp

Invocar el servidor de llama.cpp o la CLI. CLI:

llama-cli --hf-repo hansmueller464/Llama3-Aloe-8B-Alpha-Q6_K-GGUF --model llama3-aloe-8b-alpha.Q6_K.gguf -p "El significado de la vida y el universo es"

Servidor:

llama-server --hf-repo hansmueller464/Llama3-Aloe-8B-Alpha-Q6_K-GGUF --model llama3-aloe-8b-alpha.Q6_K.gguf -c 2048

Nota: También puede usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.

git clone https://github.com/ggerganov/llama.cpp &&
cd llama.cpp &&
make &&
./main -m llama3-aloe-8b-alpha.Q6_K.gguf -n 128

Funcionalidades

Modelo de Respuesta a Preguntas
Transformadores
Formatos GGUF
15 conjuntos de datos
Inglés
Biología
Medicina
Compatibilidad con llama.cpp

Casos de uso

Inferencia de respuesta a preguntas
Aplicaciones biológicas
Aplicaciones médicas