BERT base Japonés - JaQuAD
SkelterLabsInc
Pregunta y respuesta
Un modelo de Respuesta a Preguntas en japonés ajustado en JaQuAD. Consulte BERT base Japonés para obtener detalles sobre el modelo de preentrenamiento. Los códigos para el ajuste fino están disponibles en SkelterLabsInc/JaQuAD.
Como usar
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
question = 'アレクサンダー・グラハム・ベルは、どこで生まれたの?'
context = 'アレクサンダー・グラハム・ベルは、スコットランド生まれの科学者、発明家、工学者である。世界初の実用的電話の発明で知られている。'
model = AutoModelForQuestionAnswering.from_pretrained('SkelterLabsInc/bert-base-japanese-jaquad')
tokenizer = AutoTokenizer.from_pretrained('SkelterLabsInc/bert-base-japanese-jaquad')
inputs = tokenizer(question, context, add_special_tokens=True, return_tensors="pt")
input_ids = inputs["input_ids"].tolist()[0]
outputs = model(**inputs)
answer_start_scores = outputs.start_logits
answer_end_scores = outputs.end_logits
# Obtener el inicio más probable de la respuesta con el argmax del puntaje
answer_start = torch.argmax(answer_start_scores)
# Obtener el final más probable de la respuesta con el argmax del puntaje
# Se agrega 1 a `answer_end` porque el índice señalado por el puntaje es inclusivo
answer_end = torch.argmax(answer_end_scores) + 1
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(input_ids[answer_start:answer_end]))
# answer = 'スコットランド'
Funcionalidades
- Ajustado en JaQuAD
- Modelo de respuesta a preguntas en japonés
- Implementación con Transformers y PyTorch
Casos de uso
- Respuesta a preguntas en japonés
- Comprensión de lectura automática en japonés
- Desarrollo de aplicaciones de IA en japonés