FOMC-RoBERTa
gtfintechlab
Clasificación de texto
Este modelo está afinado para la tarea de clasificación hawkish-dovish-neutral del FOMC. Es parte del documento ACL 2023, 'Trillion Dollar Words: A New Financial Dataset, Task & Market Analysis'. Este trabajo fue realizado en el Laboratorio de Innovación en Servicios Financieros de Georgia Tech. El laboratorio FinTech es un centro de educación, investigación e industria financiera en el sureste. Los conjuntos de datos anotados con divisiones de entrenamiento y prueba para 3 semillas están disponibles en la página de GitHub. Este modelo utiliza la librería transformers y está diseñado para clasificación de texto.
Como usar
from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification, AutoConfig
tokenizer = AutoTokenizer.from_pretrained("gtfintechlab/FOMC-RoBERTa", do_lower_case=True, do_basic_tokenize=True)
model = AutoModelForSequenceClassification.from_pretrained("gtfintechlab/FOMC-RoBERTa", num_labels=3)
config = AutoConfig.from_pretrained("gtfintechlab/FOMC-RoBERTa")
classifier = pipeline('text-classification', model=model, tokenizer=tokenizer, config=config, device=0, framework="pt")
results = classifier(["Such a directive would imply that any tightening should be implemented promptly if developments were perceived as pointing to rising inflation.",
"The International Monetary Fund projects that global economic growth in 2019 will be the slowest since the financial crisis."],
batch_size=128, truncation="only_first")
print(results)
Funcionalidades
- afinación para clasificación de texto FOMC hawkish-dovish-neutral
- utiliza la librería transformers
- compatibilidad con PyTorch
- compatible con AutoTrain
- compatibilidad con Endpoints de Inferencia
Casos de uso
- Clasificación de comunicaciones del FOMC en hawkish, dovish o neutral.
- Análisis del impacto de la política monetaria en los mercados financieros.
- Evaluación de la postura de la política monetaria en los días de publicación de documentos del FOMC.