nickwong64/bert-base-uncased-poems-sentiment
nickwong64
Clasificación de texto
BERT es una arquitectura de codificador bidireccional basada en Transformers entrenado en el objetivo MLM (Modelado de Lenguaje enmascarado). Este modelo bert-base-uncased ha sido afinado en el conjunto de datos poem_sentiment utilizando HuggingFace Trainer con los siguientes parámetros de entrenamiento: tasa de aprendizaje 2e-5, tamaño del lote 8, número de épocas de entrenamiento=8.
Como usar
from transformers import pipeline
nlp = pipeline(task='text-classification',
model='nickwong64/bert-base-uncased-poems-sentiment')
p1 = "No man is an island, Entire of itself, Every man is a piece of the continent, A part of the main."
p2 = "Ten years, dead and living dim and draw apart. I don’t try to remember, But forgetting is hard."
p3 = "My mind to me a kingdom is; Such present joys therein I find, That it excels all other bliss"
print(nlp(p1))
print(nlp(p2))
print(nlp(p3))
[{'label': 'no_impact', 'score': 0.9982421398162842}]
[{'label': 'negative', 'score': 0.9856176972389221}]
[{'label': 'positive', 'score': 0.9931322932243347}]
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Detección de sentimiento en poemas
Casos de uso
- Clasificación del sentimiento en poemas