jihoonkimharu/bert-base-klue-mrc-finetuned
jihoonkimharu
Pregunta y respuesta
Un modelo de BERT ajustado para la tarea de MRC de KLUE. Este modelo ha sido ajustado específicamente para resolver tareas de comprensión de lectura en coreano bajo el conjunto de datos KLUE.
Como usar
Cómo usar el modelo
from transformers import BertTokenizer, BertForQuestionAnswering
import torch
# Cargar el modelo preentrenado y el tokenizador
model_name = 'jihoonkimharu/bert-base-klue-mrc-finetuned'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForQuestionAnswering.from_pretrained(model_name)
# Ejemplo de texto y pregunta
text = "\uC5F0\uC548\uC9C0 \uC804\uBB38\uB300\uD559\uC758 \uC774\uB984\uC740 \uBB34\uC5C7\uC778\uC9C0?"
question = "\uC5F0\uC548\uC9C0\uC758 \uD559\uAD50\uC774\uB984\uC740 \uBB34\uC5C7\uC778\uAC00?"
input_ids = tokenizer.encode(question, text)
# Realizar la inferencia
outputs = model(torch.tensor([input_ids]))
start_scores = outputs.start_logits
ebd_scores = outputs.end_logits
# Decodificar la respuesta
all_tokens = tokenizer.convert_ids_to_tokens(input_ids)
answer = ' '.join(all_tokens[torch.argmax(start_scores) : torch.argmax(end_scores)+1])
print(f'Respuesta: {answer}')
Funcionalidades
- Respuesta a preguntas
- Transformers
- PyTorch
- Soporte para coreano
- MRC (Comprensión de lectura de máquinas)
Casos de uso
- Respuesta a preguntas en coreano
- Aplicaciones de tutoría en línea
- Asistentes virtuales
- Sistemas de búsqueda de información