FinBERT-FOMC
ZiweiChen
Clasificación de texto
FinBERT-FOMC, un modelo de lenguaje basado en el análisis de sentimientos mejorado de las actas de las reuniones del FOMC. FinBERT-FOMC es un modelo FinBERT afinado en los datos utilizados de las actas del FOMC desde 2006.1 hasta 2023.2, con oraciones complejas re-etiquetadas utilizando el método Sentiment Focus (SF). Es más preciso que el FinBERT original para oraciones financieras más complejas.
Como usar
Puedes usar este modelo con el pipeline de Transformers para FinBERT-FOMC.
from transformers import BertTokenizer, BertForSequenceClassification, pipeline
finbert = BertForSequenceClassification.from_pretrained('ZiweiChen/FinBERT-FOMC', num_labels=3)
tokenizer = BertTokenizer.from_pretrained('ZiweiChen/FinBERT-FOMC')
finbert_fomc = pipeline("text-classification", model=finbert, tokenizer=tokenizer)
sentences = ["Spending on cars and light trucks increased somewhat in July after a lackluster pace in the second quarter but apparently weakened in August"]
results = finbert_fomc(sentences)
print(results)
# [{'label': 'Negative', 'score': 0.994509756565094}]
Funcionalidades
- Modelo de clasificación de texto
- Basado en Transformers
- Compatibilidad con PyTorch
- Entrenamiento con datos de actas del FOMC desde 2006.1 hasta 2023.2
- Método Sentiment Focus(SF) para re-etiquetado de oraciones complejas
- Salidas: Positivo, Negativo, Neutral
Casos de uso
- Análisis de sentimientos en textos financieros
- Mejor interpretación de declaraciones complejas en documentos financieros
- Automatización del análisis de actas de reuniones del FOMC para obtener sentimientos positivos, negativos o neutrales