nickwong64/bert-base-uncased-poems-sentiment

nickwong64
Clasificación de texto

BERT es una arquitectura de codificador bidireccional basada en Transformers entrenado en el objetivo MLM (Modelado de Lenguaje enmascarado). Este modelo bert-base-uncased ha sido afinado en el conjunto de datos poem_sentiment utilizando HuggingFace Trainer con los siguientes parámetros de entrenamiento: tasa de aprendizaje 2e-5, tamaño del lote 8, número de épocas de entrenamiento=8.

Como usar

from transformers import pipeline
nlp = pipeline(task='text-classification', 
model='nickwong64/bert-base-uncased-poems-sentiment')
p1 = "No man is an island, Entire of itself, Every man is a piece of the continent, A part of the main."
p2 = "Ten years, dead and living dim and draw apart. I don’t try to remember, But forgetting is hard."
p3 = "My mind to me a kingdom is; Such present joys therein I find, That it excels all other bliss"
print(nlp(p1))
print(nlp(p2))
print(nlp(p3))
[{'label': 'no_impact', 'score': 0.9982421398162842}]
[{'label': 'negative', 'score': 0.9856176972389221}]
[{'label': 'positive', 'score': 0.9931322932243347}]

Funcionalidades

Clasificación de texto
Transformers
PyTorch
Detección de sentimiento en poemas

Casos de uso

Clasificación del sentimiento en poemas