chinese_pretrain_mrc_macbert_large
luhua
Pregunta y respuesta
Modelo macbert-large entrenado con una gran cantidad de datos MRC chinos. Este modelo, publicado por luhua, ha mostrado mejoras significativas en tareas de comprensión lectora y clasificación. Varios usuarios han logrado ubicarse en el top 5 en múltiples competencias como Dureader-2021.
Como usar
Para más detalles sobre el uso del modelo, puedes visitar: MRC_Competition_Dureader
F1-score
macbert-large (哈工大预训练语言模型): 65.49 / 64.27
roberta-wwm-ext-large (哈工大预训练语言模型): 65.49 / 64.27
macbert-large (ours): 70.45 / 68.13
roberta-wwm-ext-large (ours): 68.91 / 66.91
Funcionalidades
- Modelo macbert-large
- Entrenado con datos MRC chinos
- Mejoras significativas en tareas de comprensión lectora y clasificación
Casos de uso
- Comprensión lectora
- Clasificación