bert-ajustado-para-sentimiento-japonés
Este modelo es una versión afinada de cl-tohoku/bert-base-japanese-v2 en el conjunto de datos de reseñas de productos de Amazon en japonés. El análisis de sentimiento es una tarea común en el procesamiento de lenguaje natural. Consiste en clasificar la polaridad de un texto dado a nivel de oración o documento. Por ejemplo, la oración 'La comida es buena' tiene un sentimiento positivo, mientras que la oración 'La comida es mala' tiene un sentimiento negativo. En este modelo, afinamos un modelo BERT en un conjunto de datos para análisis de sentimientos en japonés. El conjunto de datos contiene 20,000 oraciones extraídas de reseñas de Amazon. Cada oración está etiquetada como positiva, neutral o negativa. El modelo se entrenó durante 6 épocas con un tamaño de lote de 16.
Como usar
Hyperparámetros de entrenamiento
learning_rate: 2e-05
train_batch_size: 16
eval_batch_size: 16
seed: 0
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 6
Versiones de framework
- Transformers 4.27.4
- Pytorch 2.0.0+cu118
- Tokenizers 0.13.2
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Japonés
- Generado a partir de Trainer
Casos de uso
- Análisis de sentimientos en reseñas de productos
- Clasificación de polaridad en textos
- Evaluación del sentimiento de los usuarios en reseñas de Amazon