chinese-pert-base-mrc

hfl
Pregunta y respuesta

Un modelo chino de comprensión lectora de máquina (MRC) construido sobre PERT-base y ajustado con una mezcla de conjuntos de datos MRC chinos. PERT es un modelo preentrenado basado en el modelo de lenguaje permutado (PerLM) para aprender información semántica del texto de manera auto supervisada sin introducir los tokens de máscara [MASK]. Ofrece resultados competitivos en tareas como la comprensión lectora y el etiquetado de secuencias.

Como usar

¡Por favor, use BertForQuestionAnswering para cargar este modelo!

Por favor, visite nuestro repo de GitHub para obtener más información: https://github.com/ymcui/PERT

Funcionalidades

Modelo chino de comprensión lectora de máquina (MRC)
Construido sobre PERT-base
Ajustado con una mezcla de conjuntos de datos MRC chinos
No introduce tokens de máscara [MASK]
Resultados competitivos en comprensión lectora y etiquetado de secuencias
Resultados en conjuntos de datos MRC chinos (EM/F1): CMRC 2018 Dev: 73.2/90.6, DRCD Dev: 88.7/94.1, SQuAD-Zen Dev (Answerable): 59.7/76.5, AVG: 73.9/87.1

Casos de uso

Comprensión lectora de máquina en chino
Etiquetado de secuencias en chino
Modelos de lenguaje sin necesidad de máscaras