Seethal/sentiment_analysis_generic_dataset
Este es un modelo base de BERT (sin distinción de mayúsculas), preentrenado en lenguaje inglés utilizando un objetivo de modelado de lenguaje enmascarado (MLM). BERT es un modelo de transformadores preentrenado en un gran corpus de datos en inglés de manera auto supervisada. Se preentrenó en textos sin etiquetar por humanos, utilizando un proceso automático para generar entradas y etiquetas a partir de esos textos. Más precisamente, se preentrenó con dos objetivos: el modelado de lenguaje enmascarado (MLM) y la predicción de la siguiente oración (NSP). Esta es una versión ajustada para análisis de sentimientos del modelo bert-base-uncased, entrenada en un conjunto de datos clasificado para la clasificación de texto.
Como usar
Este modelo se puede utilizar para análisis de sentimientos y está entrenado para la clasificación de texto. Ejemplo de cómo usarlo:
from transformers import pipeline
classifier = pipeline('sentiment-analysis', model='Seethal/sentiment_analysis_generic_dataset')
result = classifier('I like you.')
print(result)
Funcionalidades
- Modelo base de BERT (sin distinción de mayúsculas)
- Modelado de lenguaje enmascarado (MLM)
- Predicción de la siguiente oración (NSP)
Casos de uso
- Análisis de sentimientos
- Clasificación de texto