Not-so-bright-AGI-Llama3-8B-UC200k-v1

yuriachermann
Pregunta y respuesta

El modelo Not-so-bright-AGI-Llama3-8B-UC200k-v1 es un modelo afinado basado en el meta-llama/Meta-Llama-3-8B. Utiliza datasets como HuggingFaceH4/ultrachat_200k y está diseñado principalmente para la generación de texto en aplicaciones conversacionales, como chatbots o asistentes virtuales. Entrenado con hiperparámetros específicos para optimizar su rendimiento, este modelo tiene la capacidad de generar respuestas humanas en contextos de conversación. Su evaluación se realiza en aceleradores Gaudi y CPUs Xeon que ejecutan benchmarks de Eleuther AI Language Model Evaluation Harness. Cabe destacar que el modelo puede heredar sesgos presentes en los datos de entrenamiento, por lo que es esencial usarlo de manera responsable y evaluar las respuestas generadas en contexto.

Como usar

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "yuriachermann/Not-so-bright-AGI-Llama3-8B-UC200k-v1"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

input_text = "Hola, ¿cómo estás?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Funcionalidades

Modelo afinado
Basado en meta-llama/Meta-Llama-3-8B
Utiliza datasets HuggingFaceH4/ultrachat_200k
Generación de texto en aplicaciones conversacionales
Evaluación con aceleradores Gaudi y CPUs Xeon
Evaluación en benchmarks de Eleuther AI Language Model Evaluation Harness

Casos de uso

Generación de respuestas humanas en aplicaciones conversacionales
Uso en chatbots
Asistentes virtuales
Aplicaciones de servicio al cliente basadas en IA