distilbert-tr-q-a

emre
Pregunta y respuesta

Modelo Loodos-Turkish-Bert ajustado para el problema de respuesta a preguntas utilizando el conjunto de datos TQuAD.

Como usar

Cargar modelo

from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained("emre/distilbert-tr-q-a")
model = AutoModelForQuestionAnswering.from_pretrained("emre/distilbert-tr-q-a")
nlp = pipeline('question-answering', model=model, tokenizer=tokenizer)

Aplicar el modelo

def ask(question, context):
    temp = nlp(question=question, context=context)
    start_idx = temp["start"]
    end_idx = temp["end"]
    return context[start_idx:end_idx]

izmir = "İzmir, Türkiye'de Ege Bölgesi'nde yer alan şehir ve ülkenin 81 ilinden biridir. Ülkenin nüfus bakımından en kalabalık üçüncü şehridir. Ekonomik, tarihi ve sosyo-kültürel açıdan önde gelen şehirlerden biridir. Nüfusu 2021 itibarıyla 4.425.789 kişidir. Yüzölçümü olarak ülkenin yirmi üçüncü büyük ilidir."
soru1 = "İzmir'in nüfusu kaçtır?"
print(ask(soru1, izmir))
soru2 = "İzmir hangi bölgede bulunur?"
print(ask(soru2, izmir))

Código de entrenamiento

!python3 Turkish-QA.py \
--model_type bert \
--model_name_or_path loodos/bert-base-turkish-uncased \
--do_train \
--do_eval \
--train_file trainQ.json \
--predict_file dev1.json \
--per_gpu_train_batch_size 8 \
--learning_rate 5e-5 \
--num_train_epochs 10 \
--max_seq_length 384 \
--output_dir "./model"

Funcionalidades

Ajuste fino con el conjunto de datos TQuAD
Modelo de Bert en turco sin mayúsculas de Loodos
Responde preguntas utilizando el contexto proporcionado

Casos de uso

Respuesta a preguntas basadas en textos en turco
Asistentes virtuales
Automatización de soporte al cliente