Luna-4k-mini-ollama
marlonsousa
Pregunta y respuesta
El modelo Luna es una versión personalizada del modelo Phi-3 diseñada para tareas específicas, como la generación de texto. Este modelo aprovecha las capacidades de la arquitectura Phi-3 para ofrecer resultados eficientes y precisos en diversas tareas de procesamiento de lenguaje natural.
Como usar
Instalación
Instalar Ollama:
curl -fsSL https://ollama.com/install.sh | sh
Crear Modelfile
touch Modelfile
Contenido del Modelfile
FROM ./models/luna-4b-v0.5.gguf
PARAMETER temperature 1
Cargar el modelo
ollama create luna -f ./Modelfile
Ejecutar el modelo
ollama run luna
Uso en Python
import ollama
stream = ollama.chat(
model='llama3',
messages=[{'role': 'user', 'content': 'Who are you?'}],
stream=True,
)
for chunk in stream:
print(chunk['message']['content'], end='', flush=True)
Funcionalidades
- Generación de texto
- Alta precisión y eficiencia
- Entrenado en la arquitectura Phi-3
Casos de uso
- Generación de texto
- Tareas de procesamiento de lenguaje natural