pythia410m-rm-tldr6.9b
mnoukhov
Clasificación de texto
Este modelo es una versión ajustada de mnoukhov/pythia410m-sft-tldr en un conjunto de datos desconocido. Logra los siguientes resultados en el conjunto de evaluación: Pérdida: 0.5162, Precisión: 0.7418.
Como usar
Hiperparámetros de entrenamiento
Los siguientes hiperparámetros se utilizaron durante el entrenamiento:
aprendizaje: 1e-05
train_batch_size: 8
eval_batch_size: 8
semilla: 42
pasos_de_acumulación_de_gradientes: 8
tamaño_total_de_batch_de_entrenamiento: 64
optimizador: Adam con betas=(0.9,0.999) y epsilon=1e-08
tipo_de_programador_de_tasa_de_aprendizaje: coseno
número_de_epocas: 1
entrenamiento_con_precision_mixta: AMP nativo
Funcionalidades
- Clasificación de texto
- Compatibilidad con transformers
- Compatibilidad con safetensors
- Compatible con gpt_neox
- Entrenamiento y recompensa con trl
- Generado desde Trainer
- Compatibilidad con AutoTrain
- Inferencia de generación de texto
- Compatibilidad con endpoints de inferencia
- Licencia apache-2.0
Casos de uso
- Clasificación de texto
- Generación de texto
- Análisis de sentimientos
- Filtrado de contenido