cxllin/Llama2-7b-med-v1

cxllin
Pregunta y respuesta

El modelo cxllin/Llama2-7b-med-v1, derivado del modelo Llama 7b, está diseñado para especializarse en tareas de procesamiento de lenguaje natural dentro del ámbito médico.

Como usar

Los usuarios son instados a:

  • Confirmar las salidas mediante una revisión médica experta, especialmente en contextos profesionales.
  • Emplear el modelo juiciosamente, adhiriéndose a las pautas legales y éticas pertinentes.
  • Mantener la transparencia con los usuarios finales sobre las capacidades y limitaciones del modelo.
# Ejemplo de uso
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = 'cxllin/Llama2-7b-med-v1'

model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = '¿Dónde vivo? Mi nombre es Wolfgang y vivo en Berlín.'
inputs = tokenizer(prompt, return_tensors='pt')

output = model.generate(**inputs)
print(tokenizer.decode(output[0], skip_special_tokens=True))

Funcionalidades

Generación de texto médico o resúmenes.
Respuesta a preguntas relacionadas con temas médicos.
Compatible con AutoTrain y los puntos de inferencia.

Casos de uso

Desarrollo de chatbots para el cuidado de la salud.
Extracción de información de documentación médica.