distilroberta-finetuned-financial-news-sentiment-analysis
mrm8488
Clasificación de texto
Este modelo es una versión afinada de distilroberta-base en el conjunto de datos financial_phrasebank. El modelo es una versión destilada del modelo RoBERTa-base. Es sensible a mayúsculas y minúsculas. El modelo consta de 6 capas, 768 dimensiones y 12 cabezas, totalizando 82 millones de parámetros (comparado con 125 millones de parámetros para RoBERTa-base). En promedio, DistilRoBERTa es el doble de rápido que RoBERTa-base.
Como usar
Cómo usar el modelo
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('mrm8488/distilroberta-finetuned-financial-news-sentiment-analysis')
model = AutoModelForSequenceClassification.from_pretrained('mrm8488/distilroberta-finetuned-financial-news-sentiment-analysis')
inputs = tokenizer('Operating profit totaled EUR 9.4 mn , down from EUR 11.7 mn in 2004 .', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Modelo destilado de RoBERTa-base
- Sensible a mayúsculas y minúsculas
- 6 capas, 768 dimensiones y 12 cabezas
- Total de 82 millones de parámetros
- El doble de rápido que RoBERTa-base
Casos de uso
- Clasificación de sentimiento en noticias financieras
- Análisis de noticias sobre acciones
- Evaluación de la polaridad de noticias económicas