EnvironmentalBERT-action

ESGBERT
Clasificación de texto

Como una extensión de este artículo, este es el modelo de lenguaje EnvironmentalBERT-action. Un modelo de lenguaje que está entrenado para clasificar mejor los textos de acción en el dominio ESG. Usando el modelo EnvironmentalBERT-base como punto de partida, el Modelo de Lenguaje EnvironmentalBERT-action se entrena adicionalmente en un conjunto de datos con 500 frases para detectar muestras de textos de acción. El conjunto de datos subyacente es comparativamente pequeño, por lo que si desea contribuir a él, no dude en ponerse en contacto.

Como usar

Se recomienda clasificar primero una oración como 'ambiental' o no con el modelo EnvironmentalBERT-environmental antes de clasificar si es 'acción' o no. Esta intersección nos permite construir una visión específica de si la oración muestra una 'acción ambiental'. Puedes usar el modelo con un pipeline para clasificación de texto:

from transformers import AutoModelForSequenceClassification, AutoTokenizer, pipeline

tokenizer_name = "ESGBERT/EnvironmentalBERT-action"
model_name = "ESGBERT/EnvironmentalBERT-action"

model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(tokenizer_name, max_len=512)

pipe = pipeline("text-classification", model=model, tokenizer=tokenizer) # set device=0 to use GPU

print(pipe("Estamos trabajando activamente para reducir nuestras emisiones de CO2 plantando árboles en 25 países.", padding=True, truncation=True))

Funcionalidades

Modelo entrenado para clasificar textos de acción en el dominio ESG
Basado en el modelo EnvironmentalBERT-base
Entrenado en un conjunto de datos de 500 frases
Compatible con AutoTrain
Compatible con Endpoints de Inferencia

Casos de uso

Clasificar textos de acción en el contexto de ESG
Análisis a gran escala de textos ESG
Afinar un modelo de lenguaje para detectar muestras de textos de acción ambiental