GobernanceBERT-governance

ESGBERT
Clasificación de texto

Basado en este artículo, este es el modelo de lenguaje GovernanceBERT-governance. Un modelo de lenguaje entrenado para clasificar mejor los textos de gobernanza en el dominio ESG. Utilizando el modelo GovernanceBERT-base como punto de partida, el Modelo de Lenguaje GovernanceBERT-governance está adicionalmente fine-tuned en un conjunto de datos de gobernanza 2k para detectar muestras de texto de gobernanza.

Como usar

Vea estos tutoriales en Medium para una guía sobre el uso del modelo, análisis a gran escala y fine-tuning. Puede usar el modelo con un pipeline para la clasificación de texto:

from transformers import AutoModelForSequenceClassification, AutoTokenizer, pipeline

tokenizer_name = "ESGBERT/GovernanceBERT-governance"
model_name = "ESGBERT/GovernanceBERT-governance"

model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(tokenizer_name, max_len=512)

pipe = pipeline("text-classification", model=model, tokenizer=tokenizer) # set device=0 to use GPU

print(pipe("Un código ético ha sido emitido a todos los empleados del Grupo.", padding=True, truncation=True))

Más detalles pueden encontrarse en el artículo @article{Schimanski23ESGBERT, title={{Bridiging the Gap in ESG Measurement: Using NLP to Quantify Environmental, Social, and Governance Communication}}, author={Tobias Schimanski and Andrin Reding and Nico Reding and Julia Bingler and Mathias Kraus and Markus Leippold}, year={2023}, journal={Available on SSRN: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4622514}, }

Funcionalidades

Clasificación de texto
Basado en transformers
Compatible con PyTorch
Incorporación de datos específicos de gobernanza ESG

Casos de uso

Clasificación de documentos de gobernanza
Análisis de comunicaciones ESG
Detección de texto relacionado con gobernanza en grandes conjuntos de datos textuales