FlagAlpha/Llama2-Chinese-7b-Chat

FlagAlpha
Pregunta y respuesta

FlagAlpha/Llama2-Chinese-7b-Chat es un modelo optimizado para realizar tareas de generación de texto y respuestas a preguntas en chino. Este modelo utiliza el ajuste fino LoRA en un conjunto de datos de instrucciones en chino para mejorar su capacidad de diálogo en dicho idioma. Basado en el modelo Llama2, ofrece una mejora significativa en la alineación y comprensión del chino.

Como usar

Para usar el modelo, puede seguir estos pasos:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "FlagAlpha/Llama2-Chinese-7b-Chat"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "我住在哪里?"
input_ids = tokenizer.encode(input_text, return_tensors='pt')
output = model.generate(input_ids)
print(tokenizer.decode(output[0]))

Funcionalidades

Generación de texto
Respuesta a preguntas
Compatible con Transformers
Entrenado con PyTorch
Ajuste fino LoRA
Compatible con AutoTrain
Compatible con Inference Endpoints

Casos de uso

Generación de respuestas automáticas en chino
Asistentes virtuales y chatbots
Traducción de texto
Aplicaciones de atención al cliente en idioma chino