checkpoint-126-5ep3bsfrmulti1
Este modelo fue entrenado desde cero en un conjunto de datos desconocido. Alcanza los siguientes resultados en el conjunto de evaluación: Pérdida: 0.2333, Recall: 0.9032, Precisión: 0.875, F1: 0.8889, Roc Auc: 0.0933. Se utilizó el optimizador Adam con betas=(0.9,0.999) y epsilon=1e-08. El tipo de programador de tasa de aprendizaje es lineal con una proporción de calentamiento de 0.1. El modelo fue entrenado en 97 pasos.
Como usar
Para usar este modelo en la clasificación de video, necesitarás conocer los hiperparámetros y configuraciones usadas durante el entrenamiento, como la tasa de aprendizaje (5e-05), el tamaño de lote de entrenamiento (3) y el tamaño de lote de evaluación (3). Puedes utilizar el siguiente ejemplo de código en markdown para la inferencia:
# Código de ejemplo para usar el modelo
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model_name = 'Myaukko/checkpoint-126-5ep3bsfrmulti1'
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
Funcionalidades
- Clasificación de video
- Transformers
- Safetensors
- Generado a partir de Trainer
Casos de uso
- Clasificación de diferentes tipos de videos.
- Evaluación de conjuntos de datos de video en tareas específicas.