Not-so-bright-AGI-Llama3-8B-UC200k-v1
El modelo Not-so-bright-AGI-Llama3-8B-UC200k-v1 es un modelo afinado basado en el meta-llama/Meta-Llama-3-8B. Utiliza datasets como HuggingFaceH4/ultrachat_200k y está diseñado principalmente para la generación de texto en aplicaciones conversacionales, como chatbots o asistentes virtuales. Entrenado con hiperparámetros específicos para optimizar su rendimiento, este modelo tiene la capacidad de generar respuestas humanas en contextos de conversación. Su evaluación se realiza en aceleradores Gaudi y CPUs Xeon que ejecutan benchmarks de Eleuther AI Language Model Evaluation Harness. Cabe destacar que el modelo puede heredar sesgos presentes en los datos de entrenamiento, por lo que es esencial usarlo de manera responsable y evaluar las respuestas generadas en contexto.
Como usar
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "yuriachermann/Not-so-bright-AGI-Llama3-8B-UC200k-v1"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
input_text = "Hola, ¿cómo estás?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Funcionalidades
- Modelo afinado
- Basado en meta-llama/Meta-Llama-3-8B
- Utiliza datasets HuggingFaceH4/ultrachat_200k
- Generación de texto en aplicaciones conversacionales
- Evaluación con aceleradores Gaudi y CPUs Xeon
- Evaluación en benchmarks de Eleuther AI Language Model Evaluation Harness
Casos de uso
- Generación de respuestas humanas en aplicaciones conversacionales
- Uso en chatbots
- Asistentes virtuales
- Aplicaciones de servicio al cliente basadas en IA