hfl/chinese-pert-large-mrc

hfl
Pregunta y respuesta

Un modelo de comprensión de lectura de máquina en chino (MRC, por sus siglas en inglés) construido sobre PERT-large y afinado en una mezcla de conjuntos de datos de MRC en chino. PERT es un modelo preentrenado basado en el modelo de lenguaje permutado (PerLM) para aprender información semántica del texto de manera auto-supervisada sin introducir los tokens de máscara [MASK]. Proporciona resultados competitivos en tareas como la comprensión de lectura y el etiquetado de secuencias.

Como usar

¡Por favor, usa BertForQuestionAnswering para cargar este modelo!

Este es un modelo de comprensión de lectura de máquina en chino (MRC) construido sobre PERT-large y afinado en una mezcla de conjuntos de datos de MRC en chino.

#Ejemplo de uso:
from transformers import BertForQuestionAnswering
model = BertForQuestionAnswering.from_pretrained('hfl/chinese-pert-large-mrc')

Funcionalidades

Modelo de comprensión de lectura de máquina en chino
Basado en PERT-large
Aprendizaje semántico auto-supervisado sin tokens de máscara
Afinado en conjuntos de datos de MRC en chino

Casos de uso

Comprensión de lectura de textos en chino
Etiquetado de secuencias