hassu619/Llama-2-7b-chat-finetune_UOBS
hassu619
Pregunta y respuesta
Llama-2-7b-chat-finetune_UOBS es un modelo disponible en Hugging Face, con enfoque en la generación de texto y answering questions. Está basado en el modelo llama y finamente ajustado para tareas específicas que implican preguntas y respuestas.
Como usar
Este modelo se puede utilizar para responder preguntas específicas basadas en contextos proporcionados. Aquí hay ejemplos de uso:
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained('hassu619/Llama-2-7b-chat-finetune_UOBS')
model = AutoModelForCausalLM.from_pretrained('hassu619/Llama-2-7b-chat-finetune_UOBS')
inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model.generate(**inputs)
Funcionalidades
- Transformers
- PyTorch
- Llama
- Generación de texto
- Respondedor de preguntas
- Compatible con AutoTrain y Inference Endpoints
- Licencia: llama2
- Región: EE.UU.
Casos de uso
- Responder preguntas específicas basadas en contextos proporcionados
- Generación de texto para asistentes conversacionales
- Tareas de procesamiento del lenguaje natural (NLP)