FlagAlpha/Llama2-Chinese-13b-Chat

FlagAlpha
Pregunta y respuesta

Debido a la debilidad del Llama2 en la alineación en chino, hemos utilizado un conjunto de instrucciones en chino para realizar un ajuste fino de LoRA en meta-llama/Llama-2-13b-chat-hf, dándole una fuerte capacidad de conversación en chino. Esta versión combina los parámetros ajustados de LoRA en chino (FlagAlpha/Llama2-Chinese-13b-Chat-LoRA) con los parámetros de meta-llama/Llama-2-13b-chat-hf, y está lista para usarse directamente.

Como usar

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained('FlagAlpha/Llama2-Chinese-13b-Chat')
tokenizer = AutoTokenizer.from_pretrained('FlagAlpha/Llama2-Chinese-13b-Chat')

inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0]))```

Funcionalidades

Ajuste fino en chino utilizando LoRA
Capacidad de conversación en chino significativamente mejorada
Compatible con AutoTrain
Compatible con Inference Endpoints
Basado en la biblioteca Transformers
Desarrollado con PyTorch

Casos de uso

Responder preguntas en chino
Generación de texto en chino
Aplicaciones de conversación en chino
Integración en chatbots para servicios de atención al cliente en chino