FinBERT-FOMC

ZiweiChen
Clasificación de texto

FinBERT-FOMC, un modelo de lenguaje basado en el análisis de sentimientos mejorado de las actas de las reuniones del FOMC. FinBERT-FOMC es un modelo FinBERT afinado en los datos utilizados de las actas del FOMC desde 2006.1 hasta 2023.2, con oraciones complejas re-etiquetadas utilizando el método Sentiment Focus (SF). Es más preciso que el FinBERT original para oraciones financieras más complejas.

Como usar

Puedes usar este modelo con el pipeline de Transformers para FinBERT-FOMC.

from transformers import BertTokenizer, BertForSequenceClassification, pipeline

finbert = BertForSequenceClassification.from_pretrained('ZiweiChen/FinBERT-FOMC', num_labels=3)
tokenizer = BertTokenizer.from_pretrained('ZiweiChen/FinBERT-FOMC')
finbert_fomc = pipeline("text-classification", model=finbert, tokenizer=tokenizer)

sentences = ["Spending on cars and light trucks increased somewhat in July after a lackluster pace in the second quarter but apparently weakened in August"]
results = finbert_fomc(sentences)
print(results)
# [{'label': 'Negative', 'score': 0.994509756565094}]

Funcionalidades

Modelo de clasificación de texto
Basado en Transformers
Compatibilidad con PyTorch
Entrenamiento con datos de actas del FOMC desde 2006.1 hasta 2023.2
Método Sentiment Focus(SF) para re-etiquetado de oraciones complejas
Salidas: Positivo, Negativo, Neutral

Casos de uso

Análisis de sentimientos en textos financieros
Mejor interpretación de declaraciones complejas en documentos financieros
Automatización del análisis de actas de reuniones del FOMC para obtener sentimientos positivos, negativos o neutrales