Llama-2-7b-chat-finetune
syedzaidi-kiwi
Pregunta y respuesta
Esta versión del modelo es una versión ajustada del variant Llama 2 7B de Meta para funcionalidades mejoradas de chat. Esta tarjeta de modelo apunta a ser una plantilla base para nuevos modelos. Ha sido generada utilizando esta plantilla en bruto.
Como usar
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("syedzaidi-kiwi/Llama-2-7b-chat-finetune")
model = AutoModelForCausalLM.from_pretrained("syedzaidi-kiwi/Llama-2-7b-chat-finetune")
inputs = tokenizer("Hola, ¿cómo estás?", return_tensors="pt")
response = model.generate(**inputs)
print(tokenizer.decode(response[0], skip_special_tokens=True))
Funcionalidades
- Pregunta-respuesta
- Transformadores
- PyTorch
- Generación de texto
- Compatible con AutoTrain
- Compatibilidad con inferencia de generación de texto
- Puntos finales de inferencia compatibles
Casos de uso
- Uso directo en aplicaciones que requieren respuestas conversacionales, como chatbots o asistentes virtuales.
- No diseñado para tareas fuera de la IA conversacional, como resumen de documentos o traducción.