Llama3-Aloe-8B-Alpha-Q6_K-GGUF
hansmueller464
Pregunta y respuesta
Este modelo fue convertido al formato GGUF desde HPAI-BSC/Llama3-Aloe-8B-Alpha usando llama.cpp a través del espacio de GGUF-my-repo de ggml.ai. Consulte la tarjeta de modelo original para obtener más detalles sobre el modelo.
Como usar
Instalar llama.cpp a través de brew.
brew install ggerganov/ggerganov/llama.cpp
Invocar el servidor de llama.cpp o la CLI.
CLI:
llama-cli --hf-repo hansmueller464/Llama3-Aloe-8B-Alpha-Q6_K-GGUF --model llama3-aloe-8b-alpha.Q6_K.gguf -p "El significado de la vida y el universo es"
Servidor:
llama-server --hf-repo hansmueller464/Llama3-Aloe-8B-Alpha-Q6_K-GGUF --model llama3-aloe-8b-alpha.Q6_K.gguf -c 2048
Nota: También puede usar este punto de control directamente a través de los pasos de uso listados en el repositorio de Llama.cpp.
git clone https://github.com/ggerganov/llama.cpp &&
cd llama.cpp &&
make &&
./main -m llama3-aloe-8b-alpha.Q6_K.gguf -n 128
Funcionalidades
- Modelo de Respuesta a Preguntas
- Transformadores
- Formatos GGUF
- 15 conjuntos de datos
- Inglés
- Biología
- Medicina
- Compatibilidad con llama.cpp
Casos de uso
- Inferencia de respuesta a preguntas
- Aplicaciones biológicas
- Aplicaciones médicas