osiria/bert-italian-cased-question-answering
osiria
Pregunta y respuesta
Este es un modelo BERT para el idioma italiano, afinado para la Respuesta a Preguntas Extractivas en el conjunto de datos SQuAD-IT. La versión 2.0 mejora aún más el rendimiento mediante una estrategia de afinado en 2 fases: primero se entrena en SQuAD v2 en inglés y luego se afina en SQuAD en italiano.
Como usar
from transformers import BertTokenizerFast, BertForQuestionAnswering
from transformers import pipeline
tokenizer = BertTokenizerFast.from_pretrained("osiria/bert-italian-cased-question-answering")
model = BertForQuestionAnswering.from_pretrained("osiria/bert-italian-cased-question-answering")
pipeline_qa = pipeline("question-answering", model = model, tokenizer = tokenizer)
pipeline_qa(context = "Alessandro Manzoni è nato a Milano nel 1785", question = "Dove è nato Manzoni?")
# {'score': 0.9922313690185547, 'start': 28, 'end': 34, 'answer': 'Milano'}
Funcionalidades
- Afinado en 2 fases
- Usa bert-base-multilingual-cased como modelo pre-entrenado
- Capa de embedding comprimida para obtener un modelo monolingüe
Casos de uso
- Responder preguntas extractivas en italiano
- Aplicaciones de pregunta-respuesta basada en contexto