chinese_pretrain_mrc_macbert_large

luhua
Pregunta y respuesta

Modelo macbert-large entrenado con una gran cantidad de datos MRC chinos. Este modelo, publicado por luhua, ha mostrado mejoras significativas en tareas de comprensión lectora y clasificación. Varios usuarios han logrado ubicarse en el top 5 en múltiples competencias como Dureader-2021.

Como usar

Para más detalles sobre el uso del modelo, puedes visitar: MRC_Competition_Dureader

F1-score

macbert-large (哈工大预训练语言模型): 65.49 / 64.27
roberta-wwm-ext-large (哈工大预训练语言模型): 65.49 / 64.27
macbert-large (ours): 70.45 / 68.13
roberta-wwm-ext-large (ours): 68.91 / 66.91

Funcionalidades

Modelo macbert-large
Entrenado con datos MRC chinos
Mejoras significativas en tareas de comprensión lectora y clasificación

Casos de uso

Comprensión lectora
Clasificación