YetAnother_Open-Llama-3B-LoRA-OpenOrca
Andron00e
Pregunta y respuesta
Una versión mejorada del modelo Open-Llama, fine-tuned con Open-Orca. Destacado en tareas de generación de texto y respuesta a preguntas.
Como usar
Puedes usar el modelo con el siguiente código en Python:
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained('Andron00e/YetAnother_Open-Llama-3B-LoRA-OpenOrca')
model = AutoModelForCausalLM.from_pretrained('Andron00e/YetAnother_Open-Llama-3B-LoRA-OpenOrca')
inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Modelo Transformers
- Biblioteca PyTorch
- Uso de Safetensors
- Compatible con AutoTrain y Endpoints de Inferencia
- Optimizado para generación de texto y respuesta a preguntas
Casos de uso
- Generación de texto
- Respuesta a preguntas
- Automatización de tareas conversacionales
- Compatibilidad con bibliotecas AutoTrain para entrenamiento personalizado