hfl/chinese-pert-large-mrc
hfl
Pregunta y respuesta
Un modelo de comprensión de lectura de máquina en chino (MRC, por sus siglas en inglés) construido sobre PERT-large y afinado en una mezcla de conjuntos de datos de MRC en chino. PERT es un modelo preentrenado basado en el modelo de lenguaje permutado (PerLM) para aprender información semántica del texto de manera auto-supervisada sin introducir los tokens de máscara [MASK]. Proporciona resultados competitivos en tareas como la comprensión de lectura y el etiquetado de secuencias.
Como usar
¡Por favor, usa BertForQuestionAnswering para cargar este modelo!
Este es un modelo de comprensión de lectura de máquina en chino (MRC) construido sobre PERT-large y afinado en una mezcla de conjuntos de datos de MRC en chino.
#Ejemplo de uso:
from transformers import BertForQuestionAnswering
model = BertForQuestionAnswering.from_pretrained('hfl/chinese-pert-large-mrc')
Funcionalidades
- Modelo de comprensión de lectura de máquina en chino
- Basado en PERT-large
- Aprendizaje semántico auto-supervisado sin tokens de máscara
- Afinado en conjuntos de datos de MRC en chino
Casos de uso
- Comprensión de lectura de textos en chino
- Etiquetado de secuencias