DistiLabelOrca-TinyLLama-1.1B
eren23
Pregunta y respuesta
TinyLlama/TinyLlama-1.1B-Chat-v1.0 ajustado mediante dpo en el conjunto de datos argilla/distilabel-intel-orca-dpo-pairs, que es la versión destilada de https://huggingface.co/datasets/Intel/orca_dpo_pairs.
Como usar
Cómo usar el modelo
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("eren23/DistiLabelOrca-TinyLLama-1.1B")
tokenizer = AutoTokenizer.from_pretrained("eren23/DistiLabelOrca-TinyLLama-1.1B")
inputs = tokenizer("Mi nombre es Wolfgang y vivo en Berlín", return_tensors="pt")
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Funcionalidades
- Generación de texto
- Respuestas a preguntas
- Compatibilidad con AutoTrain
- Compatibilidad con puntos finales de inferencia
Casos de uso
- Generación de respuestas en chatbots
- Creación de contenido asistido por IA
- Automatización en la obtención de respuestas a preguntas específicas
- Participación en desafíos de razonamiento AI2 y otros datasets de evaluación