GobernanceBERT-governance
Basado en este artículo, este es el modelo de lenguaje GovernanceBERT-governance. Un modelo de lenguaje entrenado para clasificar mejor los textos de gobernanza en el dominio ESG. Utilizando el modelo GovernanceBERT-base como punto de partida, el Modelo de Lenguaje GovernanceBERT-governance está adicionalmente fine-tuned en un conjunto de datos de gobernanza 2k para detectar muestras de texto de gobernanza.
Como usar
Vea estos tutoriales en Medium para una guía sobre el uso del modelo, análisis a gran escala y fine-tuning. Puede usar el modelo con un pipeline para la clasificación de texto:
from transformers import AutoModelForSequenceClassification, AutoTokenizer, pipeline
tokenizer_name = "ESGBERT/GovernanceBERT-governance"
model_name = "ESGBERT/GovernanceBERT-governance"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(tokenizer_name, max_len=512)
pipe = pipeline("text-classification", model=model, tokenizer=tokenizer) # set device=0 to use GPU
print(pipe("Un código ético ha sido emitido a todos los empleados del Grupo.", padding=True, truncation=True))
Más detalles pueden encontrarse en el artículo
@article{Schimanski23ESGBERT,
title={{Bridiging the Gap in ESG Measurement: Using NLP to Quantify Environmental, Social, and Governance Communication}},
author={Tobias Schimanski and Andrin Reding and Nico Reding and Julia Bingler and Mathias Kraus and Markus Leippold},
year={2023},
journal={Available on SSRN: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4622514},
}
Funcionalidades
- Clasificación de texto
- Basado en transformers
- Compatible con PyTorch
- Incorporación de datos específicos de gobernanza ESG
Casos de uso
- Clasificación de documentos de gobernanza
- Análisis de comunicaciones ESG
- Detección de texto relacionado con gobernanza en grandes conjuntos de datos textuales