SciBERT-SQuAD-QuAC
ixa-ehu
Pregunta y respuesta
Este es el modelo de representación de lenguaje SciBERT ajustado para la Respuesta a Preguntas. SciBERT es un modelo de lenguaje preentrenado basado en BERT que ha sido entrenado en un gran corpus de texto científico. Al ajustar para la Respuesta a Preguntas, combinamos los conjuntos de datos SQuAD2.0 y QuAC.
Como usar
Si usa este modelo, por favor cite el siguiente artículo:
@inproceedings{otegi-etal-2020-automatic,
title = "Automatic Evaluation vs. User Preference in Neural Textual {Q}uestion{A}nswering over {COVID}-19 Scientific Literature",
author = "Otegi, Arantxa and
Campos, Jon Ander and
Azkune, Gorka and
Soroa, Aitor and
Agirre, Eneko",
booktitle = "Proceedings of the 1st Workshop on {NLP} for {COVID}-19 (Part 2) at {EMNLP} 2020",
month = dec,
year = "2020",
address = "Online",
publisher = "Association for Computational Linguistics",
url = "https://www.aclweb.org/anthology/2020.nlpcovid19-2.15",
doi = "10.18653/v1/2020.nlpcovid19-2.15",
}
Funcionalidades
- Modelo de representación de lenguaje basado en BERT
- Ajustado específicamente para Respuesta a Preguntas
- Entrenado en un gran corpus de texto científico
- Combinación de conjuntos de datos SQuAD2.0 y QuAC
Casos de uso
- Respuesta a Preguntas en texto científico
- Evaluación automática versus preferencia del usuario en la Respuesta a Preguntas Textuales Neurales sobre literatura científica de COVID-19