EnvironmentalBERT-action
Como una extensión de este artículo, este es el modelo de lenguaje EnvironmentalBERT-action. Un modelo de lenguaje que está entrenado para clasificar mejor los textos de acción en el dominio ESG. Usando el modelo EnvironmentalBERT-base como punto de partida, el Modelo de Lenguaje EnvironmentalBERT-action se entrena adicionalmente en un conjunto de datos con 500 frases para detectar muestras de textos de acción. El conjunto de datos subyacente es comparativamente pequeño, por lo que si desea contribuir a él, no dude en ponerse en contacto.
Como usar
Se recomienda clasificar primero una oración como 'ambiental' o no con el modelo EnvironmentalBERT-environmental antes de clasificar si es 'acción' o no. Esta intersección nos permite construir una visión específica de si la oración muestra una 'acción ambiental'. Puedes usar el modelo con un pipeline para clasificación de texto:
from transformers import AutoModelForSequenceClassification, AutoTokenizer, pipeline
tokenizer_name = "ESGBERT/EnvironmentalBERT-action"
model_name = "ESGBERT/EnvironmentalBERT-action"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(tokenizer_name, max_len=512)
pipe = pipeline("text-classification", model=model, tokenizer=tokenizer) # set device=0 to use GPU
print(pipe("Estamos trabajando activamente para reducir nuestras emisiones de CO2 plantando árboles en 25 países.", padding=True, truncation=True))
Funcionalidades
- Modelo entrenado para clasificar textos de acción en el dominio ESG
- Basado en el modelo EnvironmentalBERT-base
- Entrenado en un conjunto de datos de 500 frases
- Compatible con AutoTrain
- Compatible con Endpoints de Inferencia
Casos de uso
- Clasificar textos de acción en el contexto de ESG
- Análisis a gran escala de textos ESG
- Afinar un modelo de lenguaje para detectar muestras de textos de acción ambiental