UlizaLlama3

Jacaranda
Pregunta y respuesta

UlizaLlama3 es un modelo de lenguaje con 8 mil millones de parámetros que se basa en el modelo Meta-Llama-3-8B. Ha sido específicamente mejorado para sobresalir en el procesamiento y generación de texto en el idioma suajili. Este modelo tiene como objetivo mejorar las capacidades de comprensión y generación del lenguaje natural para los usuarios e investigadores que hablan suajili.

Como usar

Usa este notebook para inferencia. Recomendamos realizar la inferencia en GPU L4 o A100.

from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("Jacaranda/UlizaLlama3")
model = AutoModelForCausalLM.from_pretrained("Jacaranda/UlizaLlama3")

inputs = tokenizer("Andika hadithi ya sungura", return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Para cualquier pregunta, comentarios o consultas comerciales, por favor contacte a: [email protected]

Funcionalidades

Rendimiento mejorado en tareas del idioma suajili
Mantiene las capacidades generales del lenguaje del modelo Llama 3 original
Optimizado tanto para la comprensión como para la generación de texto en suajili

Casos de uso

Optimizado para tareas posteriores, especialmente aquellas que requieren conjuntos de datos instructivos en suajili, inglés o ambos
Capacidades de chat asistido en áreas como: salud, agricultura, legal, educación, turismo y hospitalidad, servicios públicos, sectores financieros, comunicación, asistencia al cliente, comercio, entre otros
Respondiendo preguntas dentro de dominios específicos