EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval

sinjy1203
Clasificación de texto

Este modelo ha sido ajustado para evaluar si el contexto recuperado para una pregunta en RAG es correcto con una respuesta de sí o no. El modelo base para este modelo es yanolja/EEVE-Korean-Instruct-10.8B-v1.0.

Como usar

import torch
from transformers import (
    BitsAndBytesConfig,
    AutoModelForCausalLM,
    AutoTokenizer,
)

model_path = "sinjy1203/EEVE-Korean-Instruct-10.8B-v1.0-Grade-Retrieval"
nf4_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_use_double_quant=True,
    bnb_4bit_compute_dtype=torch.float16,
)

tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(
    model_path, quantization_config=nf4_config, device_map={'': 'cuda:0'}
)

prompt_template = '주어진 질문과 정보가 주어졌을 때 질문에 답하기에 충분한 정보인지 평가해줘.\n정보가 충분한지를 평가하기 위해 "예" 또는 "아니오"로 답해줘.\n\n### 질문:\n{question}\n\n### 정보:\n{context}\n\n### 평가:\n'
query = {
    "question": "동아리 종강총회가 언제인가요?",
    "context": "종강총회 날짜는 6월 21일입니다."
}

model_inputs = tokenizer(prompt_template.format_map(query), return_tensors='pt')
output = model.generate(**model_inputs, max_new_tokens=100, max_length=200)
print(output)

Funcionalidades

Clasificación de texto
Generación de texto
Generación de texto en inferencia
Compatible con AutoTrain
Compatible con Puntos de Inferencia

Casos de uso

Evaluación de la suficiencia de información para responder preguntas
Sistema de recuperación de respuestas en aplicaciones de Asistente Virtual
Generación de respuestas basadas en contexto específico