yiyanghkust/finbert-tone
yiyanghkust
Clasificación de texto
FinBERT es un modelo BERT preentrenado en texto de comunicación financiera. El propósito es mejorar la investigación y la práctica de NLP financiero. Está entrenado en los siguientes tres corpus de comunicación financiera. El tamaño total de los corpus es de 4.9B tokens.
Como usar
Puedes usar este modelo con la canalización de Transformers para el análisis de sentimientos.
from transformers import BertTokenizer, BertForSequenceClassification
from transformers import pipeline
finbert = BertForSequenceClassification.from_pretrained('yiyanghkust/finbert-tone',num_labels=3)
tokenizer = BertTokenizer.from_pretrained('yiyanghkust/finbert-tone')
nlp = pipeline('sentiment-analysis', model=finbert, tokenizer=tokenizer)
sentences = ['there is a shortage of capital, and we need extra financing',
'growth is strong and we have plenty of liquidity',
'there are doubts about our finances',
'profits are flat']
results = nlp(sentences)
print(results) # LABEL_0: neutral; LABEL_1: positive; LABEL_2: negative
Funcionalidades
- Reportes Corporativos 10-K & 10-Q: 2.5B tokens.
- Transcripciones de Llamadas de Ganancias: 1.3B tokens.
- Reportes de Analistas: 1.1B tokens.
Casos de uso
- Análisis de tono financiero