Mizuiro-sakura/deberta-v2-base-japanese-finetuned-QAe
Mizuiro-sakura
Pregunta y respuesta
Este modelo está finetuneado para la tarea de Pregunta-Respuesta (QA) y está basado en deberta-v2-base-japanese. Se ha finetuneado utilizando el dataset de dominio de conducción QA (DDQA) y puede usarse para tareas de Pregunta-Respuesta (SQuAD).
Como usar
Por favor, instale transformers, pytorch, sentencepiece y Juman++. Ejecute el siguiente código para resolver tareas de Pregunta-Respuesta:
import torch
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained('ku-nlp/deberta-v2-base-japanese')
model=AutoModelForQuestionAnswering.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-QAe') # Cargar el modelo pre-entrenado
text={
'context':'Mi nombre es EIMI. Mi comida favorita es la fresa. Mi hobby es hablar con todos ustedes.',
'question' :'¿Cuál es tu comida favorita?'
}
input_ids=tokenizer.encode(text['question'],text['context']) # Analizar morfosintácticamente usando el tokenizer y convertir a código
output= model(torch.tensor([input_ids])) # Analizar usando el modelo pre-entrenado
prediction = tokenizer.decode(input_ids[torch.argmax(output.start_logits): torch.argmax(output.end_logits)]) # Extraer la parte que corresponde a la respuesta
print(prediction)
Funcionalidades
- Modelo finetuneado para la tarea de Pregunta-Respuesta basado en deberta-v2-base-japanese.
- Entrenado utilizando el dataset DDQA.
- Puede usarse para tareas de Pregunta-Respuesta (SQuAD).
Casos de uso
- Tareas de Pregunta-Respuesta usando datasets como SQuAD.