islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model

islam-hajosman
Pregunta y respuesta

Este modelo ha sido afinado para proporcionar respuestas mejoradas a preguntas frecuentes (FAQ) del sitio web de Deutsche Bahn. Este es parte de un proyecto de tesis de maestría que busca mejorar las capacidades del modelo en dominios específicos. La configuración incluye cuantización en 4 bits NF4 con doble cuantización y el uso de un dataset específico.

Como usar

Para usar este modelo, cárguelo desde Huggingface usando el nombre del modelo islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model. Este modelo está optimizado para proporcionar respuestas específicas a las preguntas frecuentes de Deutsche Bahn.

from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model")
model = AutoModelForCausalLM.from_pretrained("islam-hajosman/llama3_instruct_fine_tuned_bahn_1k_v1_model")

input_text = "Ihre Frage hier"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)

print(response)

Funcionalidades

Afinación específica del dominio
Cuantización en 4 bits NF4 con doble cuantización
Compatible con AutoTrain
Optimizado para la generación de texto
Compatible con Inference Endpoints
Uso de LoRA para la configuración
Capacidad para responder preguntas frecuentes

Casos de uso

Proporcionar respuestas a preguntas frecuentes en Deutsche Bahn
Mejorar la atención al cliente automatizada
Desarrollo de chatbots para servicios específicos del sector ferroviario
Investigaciones en afinación de modelos de IA en dominios específicos