UlizaLlama3
Jacaranda
Pregunta y respuesta
UlizaLlama3 es un modelo de lenguaje con 8 mil millones de parámetros que se basa en el modelo Meta-Llama-3-8B. Ha sido específicamente mejorado para sobresalir en el procesamiento y generación de texto en el idioma suajili. Este modelo tiene como objetivo mejorar las capacidades de comprensión y generación del lenguaje natural para los usuarios e investigadores que hablan suajili.
Como usar
Usa este notebook para inferencia. Recomendamos realizar la inferencia en GPU L4 o A100.
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("Jacaranda/UlizaLlama3")
model = AutoModelForCausalLM.from_pretrained("Jacaranda/UlizaLlama3")
inputs = tokenizer("Andika hadithi ya sungura", return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Para cualquier pregunta, comentarios o consultas comerciales, por favor contacte a: [email protected]
Funcionalidades
- Rendimiento mejorado en tareas del idioma suajili
- Mantiene las capacidades generales del lenguaje del modelo Llama 3 original
- Optimizado tanto para la comprensión como para la generación de texto en suajili
Casos de uso
- Optimizado para tareas posteriores, especialmente aquellas que requieren conjuntos de datos instructivos en suajili, inglés o ambos
- Capacidades de chat asistido en áreas como: salud, agricultura, legal, educación, turismo y hospitalidad, servicios públicos, sectores financieros, comunicación, asistencia al cliente, comercio, entre otros
- Respondiendo preguntas dentro de dominios específicos