llama-7b-rm-float32

argsearch
Clasificación de texto

Este modelo fue entrenado desde cero en un conjunto de datos desconocido.

Como usar

Este modelo fue entrenado desde cero en un conjunto de datos desconocido utilizando los siguientes hiperparámetros:

learning_rate: 5e-05
train_batch_size: 8
eval_batch_size: 8
seed: 42
optimizer: Adam con betas=(0.9,0.999) y epsilon=1e-08
lr_scheduler_type: linear
num_epochs: 3.0

Versión de los frameworks:

Transformers 4.35.2
Pytorch 2.1.1+cu121
Datasets 2.15.0
Tokenizers 0.15.0

Funcionalidades

Clasificación de texto
Compatibilidad con AutoTrain
Inferencia de generación de texto
Endpoints compatibles
Transformers
Safetensors

Casos de uso

Clasificación de textos
Inferencia de generación de texto