monologg/koelectra-base-v2-finetuned-korquad-384
monologg
Pregunta y respuesta
Un modelo de respuesta a preguntas basado en transformers llamado koelectra-base-v2 ajustado finamente en KorQuAD. Utiliza PyTorch y está diseñado para proporcionar respuestas precisas a preguntas formuladas en coreano.
Como usar
Para usar este modelo, se necesita cargar el modelo desde Hugging Face y aplicar la inferencia en los datos deseados. Un ejemplo de código para usar este modelo podría ser:
from transformers import ElectraForQuestionAnswering, ElectraTokenizer
import torch
model_name = 'monologg/koelectra-base-v2-finetuned-korquad-384'
model = ElectraForQuestionAnswering.from_pretrained(model_name)
tokenizer = ElectraTokenizer.from_pretrained(model_name)
question = "¿Cuál es la capital de Francia?"
context = "La capital de Francia es París."
inputs = tokenizer(question, context, return_tensors='pt')
start_scores, end_scores = model(**inputs).values()
all_tokens = tokenizer.convert_ids_to_tokens(inputs['input_ids'][0])
answer = ' '.join(all_tokens[torch.argmax(start_scores) : torch.argmax(end_scores)+1])
print(answer)
Funcionalidades
- Respuesta a preguntas
- Basado en transformers
- Utiliza PyTorch
- Ajustado en el conjunto de datos KorQuAD
Casos de uso
- Responde preguntas en coreano
- Implementación en sistemas de atención al cliente
- Asistentes virtuales
- Herramientas de búsqueda de información