sajaw/llama-2-7b-RandomGPT-5K-ar

sajaw
Pregunta y respuesta

Este modelo es un archivo adaptador LoRA afinado del modelo Llama-2-7b-hf. Este es un modelo experimental.

Como usar

Para empezar a utilizar el modelo, use el siguiente código:

from transformers import AutoConfig, AutoModel, AutoTokenizer
config = AutoConfig.from_pretrained("sajaw/llama-2-7b-RandomGPT-5K-ar")
model = AutoModel.from_pretrained("sajaw/llama-2-7b-RandomGPT-5K-ar")
tokenizer = AutoTokenizer.from_pretrained("sajaw/llama-2-7b-RandomGPT-5K-ar")

Información adicional para ejecutar el modelo:

  1. Acuerde con los términos de Meta para descargar el modelo Llama-2-13b-chat-hf desde aquí.
  2. Clone este repositorio.
  3. Clone el repositorio Alpaca-LoRA desde aquí.
  4. Use este comando para ejecutarlo:
python generate.py --load_8bit --base_model 'RUTA_A_SU_MODELO_LOCAL_LLAMA_2_7B_CHAT_HF' --lora_weights 'RUTA_A_SU_ARCHIVO_LOCAL_DE_ESTE_MODELO'

Debe acordar con los términos de Meta/Llama-2 para usar este modelo.

Funcionalidades

El modelo está diseñado para responder preguntas.
Utiliza el marco de trabajo Transformers.
Compatible con PyTorch.
Generación de texto
Adaptable a AutoTrain.
Compatible con inferencia de generación de texto.
Compatible con endpoints de inferencia.

Casos de uso

Responder preguntas.
Generación de texto.
Análisis de datos heterogéneos.