BERT-large afinado en CUAD
Este es un modelo BERT-large (bert-large-uncased-whole-word-masking) afinado en el conjunto de datos CUAD de CUAD: Un Conjunto de Datos NLP Anotado por Expertos para la Revisión de Contratos Legales (Hendrycks et al., 2021), con la arquitectura del modelo BertforQuestionAnswering. Las preguntas piden información que se encuentra a menudo en contratos; el modelo devolvería la cadena de texto relevante y su índice de inicio en el documento dado si la información existe. El conjunto de datos CUAD está en el formato SQuAD 2.0. Para obtener detalles sobre el conjunto de datos y el uso de los scripts de entrenamiento/prueba relevantes, consulte el documento y su repositorio de Github.
Como usar
Este modelo no tiene suficiente actividad para ser desplegado en Inference API (sin servidor) todavía. Aumente su visibilidad social y verifique más tarde, o despliegue en Inference Endpoints (dedicado) en su lugar.
Funcionalidades
- Modelo BERT-large afinado
- Basado en el conjunto de datos CUAD
- Arquitectura del modelo BertforQuestionAnswering
- Formato del conjunto de datos CUAD: SQuAD 2.0
- Proporciona la cadena de texto relevante y su índice de inicio en el documento
Casos de uso
- Revisión de contratos legales
- Respuestas a preguntas basadas en el texto de contratos