FOMC-RoBERTa

gtfintechlab
Clasificación de texto

Este modelo está afinado para la tarea de clasificación hawkish-dovish-neutral del FOMC. Es parte del documento ACL 2023, 'Trillion Dollar Words: A New Financial Dataset, Task & Market Analysis'. Este trabajo fue realizado en el Laboratorio de Innovación en Servicios Financieros de Georgia Tech. El laboratorio FinTech es un centro de educación, investigación e industria financiera en el sureste. Los conjuntos de datos anotados con divisiones de entrenamiento y prueba para 3 semillas están disponibles en la página de GitHub. Este modelo utiliza la librería transformers y está diseñado para clasificación de texto.

Como usar

from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification, AutoConfig

tokenizer = AutoTokenizer.from_pretrained("gtfintechlab/FOMC-RoBERTa", do_lower_case=True, do_basic_tokenize=True)
model = AutoModelForSequenceClassification.from_pretrained("gtfintechlab/FOMC-RoBERTa", num_labels=3)
config = AutoConfig.from_pretrained("gtfintechlab/FOMC-RoBERTa")

classifier = pipeline('text-classification', model=model, tokenizer=tokenizer, config=config, device=0, framework="pt")
results = classifier(["Such a directive would imply that any tightening should be implemented promptly if developments were perceived as pointing to rising inflation.", 
"The International Monetary Fund projects that global economic growth in 2019 will be the slowest since the financial crisis."], 
batch_size=128, truncation="only_first")

print(results)

Funcionalidades

afinación para clasificación de texto FOMC hawkish-dovish-neutral
utiliza la librería transformers
compatibilidad con PyTorch
compatible con AutoTrain
compatibilidad con Endpoints de Inferencia

Casos de uso

Clasificación de comunicaciones del FOMC en hawkish, dovish o neutral.
Análisis del impacto de la política monetaria en los mercados financieros.
Evaluación de la postura de la política monetaria en los días de publicación de documentos del FOMC.