yiyanghkust/finbert-tone

yiyanghkust
Clasificación de texto

FinBERT es un modelo BERT preentrenado en texto de comunicación financiera. El propósito es mejorar la investigación y la práctica de NLP financiero. Está entrenado en los siguientes tres corpus de comunicación financiera. El tamaño total de los corpus es de 4.9B tokens.

Como usar

Puedes usar este modelo con la canalización de Transformers para el análisis de sentimientos.

from transformers import BertTokenizer, BertForSequenceClassification
from transformers import pipeline

finbert = BertForSequenceClassification.from_pretrained('yiyanghkust/finbert-tone',num_labels=3)
tokenizer = BertTokenizer.from_pretrained('yiyanghkust/finbert-tone')

nlp = pipeline('sentiment-analysis', model=finbert, tokenizer=tokenizer)

sentences = ['there is a shortage of capital, and we need extra financing',
'growth is strong and we have plenty of liquidity',
'there are doubts about our finances',
'profits are flat']
results = nlp(sentences)
print(results)  # LABEL_0: neutral; LABEL_1: positive; LABEL_2: negative

Funcionalidades

Reportes Corporativos 10-K & 10-Q: 2.5B tokens.
Transcripciones de Llamadas de Ganancias: 1.3B tokens.
Reportes de Analistas: 1.1B tokens.

Casos de uso

Análisis de tono financiero