Mizuiro-sakura/deberta-v2-base-japanese-finetuned-QAe

Mizuiro-sakura
Pregunta y respuesta

Este modelo está finetuneado para la tarea de Pregunta-Respuesta (QA) y está basado en deberta-v2-base-japanese. Se ha finetuneado utilizando el dataset de dominio de conducción QA (DDQA) y puede usarse para tareas de Pregunta-Respuesta (SQuAD).

Como usar

Por favor, instale transformers, pytorch, sentencepiece y Juman++. Ejecute el siguiente código para resolver tareas de Pregunta-Respuesta:

import torch
from transformers import AutoTokenizer, AutoModelForQuestionAnswering

tokenizer = AutoTokenizer.from_pretrained('ku-nlp/deberta-v2-base-japanese')
model=AutoModelForQuestionAnswering.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-QAe') # Cargar el modelo pre-entrenado

text={
'context':'Mi nombre es EIMI. Mi comida favorita es la fresa. Mi hobby es hablar con todos ustedes.',
'question' :'¿Cuál es tu comida favorita?'
}

input_ids=tokenizer.encode(text['question'],text['context']) # Analizar morfosintácticamente usando el tokenizer y convertir a código
output= model(torch.tensor([input_ids])) # Analizar usando el modelo pre-entrenado
prediction = tokenizer.decode(input_ids[torch.argmax(output.start_logits): torch.argmax(output.end_logits)]) # Extraer la parte que corresponde a la respuesta
print(prediction)

Funcionalidades

Modelo finetuneado para la tarea de Pregunta-Respuesta basado en deberta-v2-base-japanese.
Entrenado utilizando el dataset DDQA.
Puede usarse para tareas de Pregunta-Respuesta (SQuAD).

Casos de uso

Tareas de Pregunta-Respuesta usando datasets como SQuAD.