Hongbin37/CBT-LLM
Hongbin37
Pregunta y respuesta
Un modelo LoRA afinado por instrucción basado en https://huggingface.co/baichuan-inc/baichuan-7B Marco de entrenamiento: https://github.com/hiyouga/LLaMA-Factory Por favor, sigue la licencia baichuan-7B para usar este modelo.
Como usar
Uso del modelo:
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
tokenizer = AutoTokenizer.from_pretrained("CBT-LLM", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("CBT-LLM", trust_remote_code=True).cuda()
streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
query = "¿Por qué temo que algo salga mal y me critiquen? Al hacer cosas, otros me dicen su método, pero mi cuerpo no lo sigue; insisto en varias pruebas hasta descubrir que las instrucciones de otros son las más eficientes; además, el último mes he dormido mal, me siento cansado todo el día, y sé cuál es mi problema pero no sé cómo cambiarlo."
plantilla = (
"Eres un psicólogo experimentado, especializado en terapia cognitiva conductual. Contesta la siguiente pregunta como un psicólogo.
"
"Humano: {}
Asistente: ")
inputs = tokenizer([template.format(query)], return_tensors="pt")
inputs = inputs.to("cuda")
generate_ids = model.generate(**inputs, max_new_tokens=256, streamer=streamer)
Para instalar el paquete necesario, ejecuta el siguiente comando:
pip install transformers==4.33.2
Funcionalidades
- transformers
- pytorch
- baichuan
- extracción de características
- lora
- respuesta a preguntas
- código personalizado
- licencia: apache-2.0
- región: us
Casos de uso
- Responder preguntas
- Asistencia en terapia cognitiva conductual
- Generación de texto en chino