monologg/koelectra-base-v2-finetuned-korquad-384

monologg
Pregunta y respuesta

Un modelo de respuesta a preguntas basado en transformers llamado koelectra-base-v2 ajustado finamente en KorQuAD. Utiliza PyTorch y está diseñado para proporcionar respuestas precisas a preguntas formuladas en coreano.

Como usar

Para usar este modelo, se necesita cargar el modelo desde Hugging Face y aplicar la inferencia en los datos deseados. Un ejemplo de código para usar este modelo podría ser:

from transformers import ElectraForQuestionAnswering, ElectraTokenizer
import torch

model_name = 'monologg/koelectra-base-v2-finetuned-korquad-384'
model = ElectraForQuestionAnswering.from_pretrained(model_name)
tokenizer = ElectraTokenizer.from_pretrained(model_name)

question = "¿Cuál es la capital de Francia?"
context = "La capital de Francia es París."
inputs = tokenizer(question, context, return_tensors='pt')
start_scores, end_scores = model(**inputs).values()

all_tokens = tokenizer.convert_ids_to_tokens(inputs['input_ids'][0])
answer = ' '.join(all_tokens[torch.argmax(start_scores) : torch.argmax(end_scores)+1])
print(answer)

Funcionalidades

Respuesta a preguntas
Basado en transformers
Utiliza PyTorch
Ajustado en el conjunto de datos KorQuAD

Casos de uso

Responde preguntas en coreano
Implementación en sistemas de atención al cliente
Asistentes virtuales
Herramientas de búsqueda de información