Llama2-70b-Guanaco-QLoRA-fp16
TheBloke
Clasificación de texto
Modelo Llama2-70b Guanaco QLoRA en formato fp16 de TheBloke. Este modelo se ha convertido y/o fusionado desde el repositorio original al formato float16 para facilitar la inferencia en GPU.
Como usar
### Humano: {prompt}
### Asistente:
Para soporte adicional y discusiones sobre estos modelos y la IA en general, únete al servidor de Discord de TheBloke AI.
Patreon: https://patreon.com/TheBlokeAI
Ko-Fi: https://ko-fi.com/TheBlokeAI
Funcionalidades
- Modelos GPTQ para inferencia en GPU, con múltiples opciones de parámetros de cuantización.
- Modelos GGML de 2, 3, 4, 5, 6 y 8 bits para inferencia en CPU+GPU.
- Modelo fusionado en formato fp16 para inferencia en GPU y futuras conversiones.
- Adaptador QLoRA original de Mikael110.
Casos de uso
- Clasificación de texto.
- Generación de texto.
- Investigaciones y proyectos de IA personalizados.
- Supporta la creación de proyectos de IA novedosos, como ajustes finos y el entrenamiento.