EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval
sinjy1203
Clasificación de texto
Este modelo ha sido ajustado para evaluar si el contexto recuperado para una pregunta en RAG es correcto con una respuesta de sí o no. El modelo base para este modelo es yanolja/EEVE-Korean-Instruct-10.8B-v1.0.
Como usar
import torch
from transformers import (
BitsAndBytesConfig,
AutoModelForCausalLM,
AutoTokenizer,
)
model_path = "sinjy1203/EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval"
nf4_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_quant_type="nf4",
bnb_4bit_use_double_quant=True,
bnb_4bit_compute_dtype=torch.float16,
)
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
model_path, quantization_config=nf4_config, device_map={'': 'cuda:0'}
)
prompt_template = '주어진 질문과 정보가 주어졌을 때 질문에 답하기에 충분한 정보인지 평가해줘.\n정보가 충분한지를 평가하기 위해 "예" 또는 "아니오"로 답해줘.\n\n### 질문:\n{question}\n\n### 정보:\n{context}\n\n### 평가:\n'
query = {
"question": "동아리 종강총회가 언제인가요?",
"context": "종강총회 날짜는 6월 21일입니다."
}
model_inputs = tokenizer(prompt_template.format_map(query), return_tensors='pt')
output = model.generate(**model_inputs, max_new_tokens=100, max_length=200)
print(output)
Funcionalidades
- Clasificación de texto
- Generación de texto
- Generación de texto en inferencia
- Compatible con AutoTrain
- Compatible con Puntos de Inferencia
Casos de uso
- Evaluación de la suficiencia de información para responder preguntas
- Sistema de recuperación de respuestas en aplicaciones de Asistente Virtual
- Generación de respuestas basadas en contexto específico