illuni/illuni-llama-2-ko-7b

illuni
Pregunta y respuesta

Un modelo de IA desarrollado por Julleong basado en el modelo backbone beomi/llama-2-ko-7b, utilizando la biblioteca 'transformers'. Este modelo está finetuneado y es compatible con AutoTrain. Se utiliza principalmente para generación de texto y respuestas a preguntas, y es compatible con Inferencias y Puntos de Inferencia. Utiliza Safetensors y está licenciado bajo MIT.

Como usar

Cómo utilizar el modelo

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = 'illuni/illuni-llama-2-ko-7b'
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

input_text = 'Tu pregunta en coreano'
inputs = tokenizer(input_text, return_tensors='pt')
outputs = model.generate(**inputs)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Funcionalidades

Generación de texto
Respuestas a preguntas
Compatible con AutoTrain
Compatibilidad con Inferencias y Puntos de Inferencia
Uso de Safetensors
Modelo en coreano

Casos de uso

Generación de texto en coreano
Responder preguntas formuladas en coreano
Desarrollo de aplicaciones de IA en coreano
Integración en sistemas de asistencia y chatbot en coreano