sajaw/llama-2-7b-RandomGPT-5K-ar
sajaw
Pregunta y respuesta
Este modelo es un archivo adaptador LoRA afinado del modelo Llama-2-7b-hf. Este es un modelo experimental.
Como usar
Para empezar a utilizar el modelo, use el siguiente código:
from transformers import AutoConfig, AutoModel, AutoTokenizer
config = AutoConfig.from_pretrained("sajaw/llama-2-7b-RandomGPT-5K-ar")
model = AutoModel.from_pretrained("sajaw/llama-2-7b-RandomGPT-5K-ar")
tokenizer = AutoTokenizer.from_pretrained("sajaw/llama-2-7b-RandomGPT-5K-ar")
Información adicional para ejecutar el modelo:
- Acuerde con los términos de Meta para descargar el modelo Llama-2-13b-chat-hf desde aquí.
- Clone este repositorio.
- Clone el repositorio Alpaca-LoRA desde aquí.
- Use este comando para ejecutarlo:
python generate.py --load_8bit --base_model 'RUTA_A_SU_MODELO_LOCAL_LLAMA_2_7B_CHAT_HF' --lora_weights 'RUTA_A_SU_ARCHIVO_LOCAL_DE_ESTE_MODELO'
Debe acordar con los términos de Meta/Llama-2 para usar este modelo.
Funcionalidades
- El modelo está diseñado para responder preguntas.
- Utiliza el marco de trabajo Transformers.
- Compatible con PyTorch.
- Generación de texto
- Adaptable a AutoTrain.
- Compatible con inferencia de generación de texto.
- Compatible con endpoints de inferencia.
Casos de uso
- Responder preguntas.
- Generación de texto.
- Análisis de datos heterogéneos.