illuni/illuni-llama-2-ko-7b
illuni
Pregunta y respuesta
Un modelo de IA desarrollado por Julleong basado en el modelo backbone beomi/llama-2-ko-7b, utilizando la biblioteca 'transformers'. Este modelo está finetuneado y es compatible con AutoTrain. Se utiliza principalmente para generación de texto y respuestas a preguntas, y es compatible con Inferencias y Puntos de Inferencia. Utiliza Safetensors y está licenciado bajo MIT.
Como usar
Cómo utilizar el modelo
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = 'illuni/illuni-llama-2-ko-7b'
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
input_text = 'Tu pregunta en coreano'
inputs = tokenizer(input_text, return_tensors='pt')
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Funcionalidades
- Generación de texto
- Respuestas a preguntas
- Compatible con AutoTrain
- Compatibilidad con Inferencias y Puntos de Inferencia
- Uso de Safetensors
- Modelo en coreano
Casos de uso
- Generación de texto en coreano
- Responder preguntas formuladas en coreano
- Desarrollo de aplicaciones de IA en coreano
- Integración en sistemas de asistencia y chatbot en coreano