Llama-2-7b-chat-finetune

syedzaidi-kiwi
Pregunta y respuesta

Esta versión del modelo es una versión ajustada del variant Llama 2 7B de Meta para funcionalidades mejoradas de chat. Esta tarjeta de modelo apunta a ser una plantilla base para nuevos modelos. Ha sido generada utilizando esta plantilla en bruto.

Como usar

from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("syedzaidi-kiwi/Llama-2-7b-chat-finetune")
model = AutoModelForCausalLM.from_pretrained("syedzaidi-kiwi/Llama-2-7b-chat-finetune")

inputs = tokenizer("Hola, ¿cómo estás?", return_tensors="pt")
response = model.generate(**inputs)
print(tokenizer.decode(response[0], skip_special_tokens=True))

Funcionalidades

Pregunta-respuesta
Transformadores
PyTorch
Generación de texto
Compatible con AutoTrain
Compatibilidad con inferencia de generación de texto
Puntos finales de inferencia compatibles

Casos de uso

Uso directo en aplicaciones que requieren respuestas conversacionales, como chatbots o asistentes virtuales.
No diseñado para tareas fuera de la IA conversacional, como resumen de documentos o traducción.