islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model
islam-hajosman
Pregunta y respuesta
Este modelo ha sido afinado para proporcionar respuestas mejoradas a preguntas frecuentes (FAQ) del sitio web de Deutsche Bahn. Este es parte de un proyecto de tesis de maestría que busca mejorar las capacidades del modelo en dominios específicos. La configuración incluye cuantización en 4 bits NF4 con doble cuantización y el uso de un dataset específico.
Como usar
Para usar este modelo, cárguelo desde Huggingface usando el nombre del modelo islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model. Este modelo está optimizado para proporcionar respuestas específicas a las preguntas frecuentes de Deutsche Bahn.
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model")
model = AutoModelForCausalLM.from_pretrained("islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model")
input_text = "Ihre Frage hier"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Funcionalidades
- Afinación específica del dominio
- Cuantización en 4 bits NF4 con doble cuantización
- Compatible con AutoTrain
- Optimizado para la generación de texto
- Compatible con Inference Endpoints
- Uso de LoRA para la configuración
- Capacidad para responder preguntas frecuentes
Casos de uso
- Proporcionar respuestas a preguntas frecuentes en Deutsche Bahn
- Mejorar la atención al cliente automatizada
- Desarrollo de chatbots para servicios específicos del sector ferroviario
- Investigaciones en afinación de modelos de IA en dominios específicos