cxllin/Llama2-7b-med-v1
cxllin
Pregunta y respuesta
El modelo cxllin/Llama2-7b-med-v1, derivado del modelo Llama 7b, está diseñado para especializarse en tareas de procesamiento de lenguaje natural dentro del ámbito médico.
Como usar
Los usuarios son instados a:
- Confirmar las salidas mediante una revisión médica experta, especialmente en contextos profesionales.
- Emplear el modelo juiciosamente, adhiriéndose a las pautas legales y éticas pertinentes.
- Mantener la transparencia con los usuarios finales sobre las capacidades y limitaciones del modelo.
# Ejemplo de uso
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = 'cxllin/Llama2-7b-med-v1'
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = '¿Dónde vivo? Mi nombre es Wolfgang y vivo en Berlín.'
inputs = tokenizer(prompt, return_tensors='pt')
output = model.generate(**inputs)
print(tokenizer.decode(output[0], skip_special_tokens=True))
Funcionalidades
- Generación de texto médico o resúmenes.
- Respuesta a preguntas relacionadas con temas médicos.
- Compatible con AutoTrain y los puntos de inferencia.
Casos de uso
- Desarrollo de chatbots para el cuidado de la salud.
- Extracción de información de documentación médica.