pythia410m-rm-tldr6.9b

mnoukhov
Clasificación de texto

Este modelo es una versión ajustada de mnoukhov/pythia410m-sft-tldr en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.5162, Precisión: 0.7418.

Como usar

Hiperparámetros de entrenamiento

Los siguientes hiperparámetros se utilizaron durante el entrenamiento:

aprendizaje: 1e-05
train_batch_size: 8
eval_batch_size: 8
semilla: 42
pasos_de_acumulación_de_gradientes: 8
tamaño_total_de_batch_de_entrenamiento: 64
optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
tipo_de_programador_de_tasa_de_aprendizaje: coseno
número_de_epocas: 1
entrenamiento_con_precision_mixta: AMP nativo

Funcionalidades

Clasificación de texto
Compatibilidad con transformers
Compatibilidad con safetensors
Compatible con gpt_neox
Entrenamiento y recompensa con trl
Generado desde Trainer
Compatibilidad con AutoTrain
Inferencia de generación de texto
Compatibilidad con endpoints de inferencia
Licencia apache-2.0

Casos de uso

Clasificación de texto
Generación de texto
Análisis de sentimientos
Filtrado de contenido