Llama3-Aloe-8B-Alpha-Q8_0-GGUF
hansmueller464
Pregunta y respuesta
Este modelo fue convertido al formato GGUF desde HPAI-BSC/Llama3-Aloe-8B-Alpha usando llama.cpp a través del espacio GGUF-my-repo de ggml.ai. Consulte la tarjeta del modelo original para obtener más detalles sobre el modelo.
Como usar
Uso con llama.cpp
Instale llama.cpp a través de brew.
brew install ggerganov/ggerganov/llama.cpp
Invoque el servidor llama.cpp o la CLI.
CLI:
llama-cli --hf-repo hansmueller464/Llama3-Aloe-8B-Alpha-Q8_0-GGUF --model llama3-aloe-8b-alpha.Q8_0.gguf -p "The meaning to life and the universe is"
Servidor:
llama-server --hf-repo hansmueller464/Llama3-Aloe-8B-Alpha-Q8_0-GGUF --model llama3-aloe-8b-alpha.Q8_0.gguf -c 2048
Nota: También puede usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.
git clone https://github.com/ggerganov/llama.cpp && cd llama.cpp && make && ./main -m llama3-aloe-8b-alpha.Q8_0.gguf -n 128
Funcionalidades
- Conversión al formato GGUF
- Compatibilidad con llama.cpp
- Arquitectura de 8 bits Q8_0
- Optimizado para tareas de preguntas y respuestas
- Tamaño del modelo: 8.03B parámetros
Casos de uso
- Responder preguntas en inglés en el campo de la biología y la medicina