YetAnother_Open-Llama-3B-LoRA-OpenOrca

Andron00e
Pregunta y respuesta

Una versión mejorada del modelo Open-Llama, fine-tuned con Open-Orca. Destacado en tareas de generación de texto y respuesta a preguntas.

Como usar

Puedes usar el modelo con el siguiente código en Python:

from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained('Andron00e/YetAnother_Open-Llama-3B-LoRA-OpenOrca')
model = AutoModelForCausalLM.from_pretrained('Andron00e/YetAnother_Open-Llama-3B-LoRA-OpenOrca')

inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Modelo Transformers
Biblioteca PyTorch
Uso de Safetensors
Compatible con AutoTrain y Endpoints de Inferencia
Optimizado para generación de texto y respuesta a preguntas

Casos de uso

Generación de texto
Respuesta a preguntas
Automatización de tareas conversacionales
Compatibilidad con bibliotecas AutoTrain para entrenamiento personalizado