distilroberta-finetuned-financial-news-sentiment-analysis

mrm8488
Clasificación de texto

Este modelo es una versión afinada de distilroberta-base en el conjunto de datos financial_phrasebank. El modelo es una versión destilada del modelo RoBERTa-base. Es sensible a mayúsculas y minúsculas. El modelo consta de 6 capas, 768 dimensiones y 12 cabezas, totalizando 82 millones de parámetros (comparado con 125 millones de parámetros para RoBERTa-base). En promedio, DistilRoBERTa es el doble de rápido que RoBERTa-base.

Como usar

Cómo usar el modelo

from transformers import AutoTokenizer, AutoModelForSequenceClassification

tokenizer = AutoTokenizer.from_pretrained('mrm8488/distilroberta-finetuned-financial-news-sentiment-analysis')
model = AutoModelForSequenceClassification.from_pretrained('mrm8488/distilroberta-finetuned-financial-news-sentiment-analysis')

inputs = tokenizer('Operating profit totaled EUR 9.4 mn , down from EUR 11.7 mn in 2004 .', return_tensors='pt')
outputs = model(**inputs)

Funcionalidades

Modelo destilado de RoBERTa-base
Sensible a mayúsculas y minúsculas
6 capas, 768 dimensiones y 12 cabezas
Total de 82 millones de parámetros
El doble de rápido que RoBERTa-base

Casos de uso

Clasificación de sentimiento en noticias financieras
Análisis de noticias sobre acciones
Evaluación de la polaridad de noticias económicas