Luna-4k-mini-ollama

marlonsousa
Pregunta y respuesta

El modelo Luna es una versión personalizada del modelo Phi-3 diseñada para tareas específicas, como la generación de texto. Este modelo aprovecha las capacidades de la arquitectura Phi-3 para ofrecer resultados eficientes y precisos en diversas tareas de procesamiento de lenguaje natural.

Como usar

Instalación

Instalar Ollama:

curl -fsSL https://ollama.com/install.sh | sh

Crear Modelfile

touch Modelfile

Contenido del Modelfile

FROM ./models/luna-4b-v0.5.gguf

PARAMETER temperature 1

Cargar el modelo

ollama create luna -f ./Modelfile

Ejecutar el modelo

ollama run luna

Uso en Python

import ollama

stream = ollama.chat(
  model='llama3',
  messages=[{'role': 'user', 'content': 'Who are you?'}],
  stream=True,
)

for chunk in stream:
  print(chunk['message']['content'], end='', flush=True)

Funcionalidades

Generación de texto
Alta precisión y eficiencia
Entrenado en la arquitectura Phi-3

Casos de uso

Generación de texto
Tareas de procesamiento de lenguaje natural