uer/roberta-base-chinese-extractive-qa
uer
Pregunta y respuesta
El modelo se utiliza para responder preguntas de manera extractiva. Está afinado por UER-py, que se presenta en este artículo. Además, el modelo también puede ser afinado por TencentPretrain, introducido en este artículo, que hereda UER-py para soportar modelos con más de mil millones de parámetros y lo extiende a un marco de preentrenamiento multimodal. Puedes descargar el modelo desde la página del Modelzoo de UER-py o a través de HuggingFace desde el enlace roberta-base-chinese-extractive-qa.
Como usar
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model = AutoModelForQuestionAnswering.from_pretrained('uer/roberta-base-chinese-extractive-qa')
tokenizer = AutoTokenizer.from_pretrained('uer/roberta-base-chinese-extractive-qa')
QA = pipeline('question-answering', model=model, tokenizer=tokenizer)
QA_input = {'question': "著名诗歌《假如生活欺骗了你》的作者是", 'context': "普希金从那里学习人民的语言,吸取了许多有益的养料,这一切对普希金后来的创作产生了很大的影响。这两年里,普希金创作了不少优秀的作品,如《囚徒》、《致大海》、《致凯恩》和《假如生活欺骗了你》等几十首抒情诗,叙事诗《努林伯爵》,历史剧《鲍里斯·戈都诺夫》,以及《叶甫盖尼·奥涅金》前六章。"}
QA(QA_input)
# {'score': 0.9766426682472229, 'start': 0, 'end': 3, 'answer': '普希金'}
Funcionalidades
- Afinado por UER-py
- Soporte para modelos con más de mil millones de parámetros
- Marco de preentrenamiento multimodal
- Disponible para descargar desde UER-py Modelzoo y HuggingFace
Casos de uso
- Responder preguntas de manera extractiva
- Soporte para modelos multilingües
- Preentrenamiento multimodal