BERT-large afinado en CUAD

nikotang
Pregunta y respuesta

Este es un modelo BERT-large (bert-large-uncased-whole-word-masking) afinado en el conjunto de datos CUAD de CUAD: Un Conjunto de Datos NLP Anotado por Expertos para la Revisión de Contratos Legales (Hendrycks et al., 2021), con la arquitectura del modelo BertforQuestionAnswering. Las preguntas piden información que se encuentra a menudo en contratos; el modelo devolvería la cadena de texto relevante y su índice de inicio en el documento dado si la información existe. El conjunto de datos CUAD está en el formato SQuAD 2.0. Para obtener detalles sobre el conjunto de datos y el uso de los scripts de entrenamiento/prueba relevantes, consulte el documento y su repositorio de Github.

Como usar

Este modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) todavía. Aumente su visibilidad social y verifique más tarde, o despliegue en Inference Endpoints (dedicado) en su lugar.

Funcionalidades

Modelo BERT-large afinado
Basado en el conjunto de datos CUAD
Arquitectura del modelo BertforQuestionAnswering
Formato del conjunto de datos CUAD: SQuAD 2.0
Proporciona la cadena de texto relevante y su índice de inicio en el documento

Casos de uso

Revisión de contratos legales
Respuestas a preguntas basadas en el texto de contratos