FlagAlpha/Llama2-Chinese-13b-Chat
FlagAlpha
Pregunta y respuesta
Debido a la debilidad del Llama2 en la alineación en chino, hemos utilizado un conjunto de instrucciones en chino para realizar un ajuste fino de LoRA en meta-llama/Llama-2-13b-chat-hf, dándole una fuerte capacidad de conversación en chino. Esta versión combina los parámetros ajustados de LoRA en chino (FlagAlpha/Llama2-Chinese-13b-Chat-LoRA) con los parámetros de meta-llama/Llama-2-13b-chat-hf, y está lista para usarse directamente.
Como usar
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('FlagAlpha/Llama2-Chinese-13b-Chat')
tokenizer = AutoTokenizer.from_pretrained('FlagAlpha/Llama2-Chinese-13b-Chat')
inputs = tokenizer('¿Dónde vivo?', return_tensors='pt')
outputs = model.generate(**inputs)
print(tokenizer.decode(outputs[0]))```
Funcionalidades
- Ajuste fino en chino utilizando LoRA
- Capacidad de conversación en chino significativamente mejorada
- Compatible con AutoTrain
- Compatible con Inference Endpoints
- Basado en la biblioteca Transformers
- Desarrollado con PyTorch
Casos de uso
- Responder preguntas en chino
- Generación de texto en chino
- Aplicaciones de conversación en chino
- Integración en chatbots para servicios de atención al cliente en chino