DistiLabelOrca-TinyLLama-1.1B

eren23
Pregunta y respuesta

TinyLlama/TinyLlama-1.1B-Chat-v1.0 ajustado mediante dpo en el conjunto de datos argilla/distilabel-intel-orca-dpo-pairs, que es la versión destilada de https://huggingface.co/datasets/Intel/orca_dpo_pairs.

Como usar

Cómo usar el modelo

from transformers import AutoModelForCausalLM, AutoTokenizer 

model = AutoModelForCausalLM.from_pretrained("eren23/DistiLabelOrca-TinyLLama-1.1B") 
tokenizer = AutoTokenizer.from_pretrained("eren23/DistiLabelOrca-TinyLLama-1.1B") 

inputs = tokenizer("Mi nombre es Wolfgang y vivo en Berlín", return_tensors="pt") 
outputs = model.generate(**inputs) 
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) 

Funcionalidades

Generación de texto
Respuestas a preguntas
Compatibilidad con AutoTrain
Compatibilidad con puntos finales de inferencia

Casos de uso

Generación de respuestas en chatbots
Creación de contenido asistido por IA
Automatización en la obtención de respuestas a preguntas específicas
Participación en desafíos de razonamiento AI2 y otros datasets de evaluación