|
{ |
|
"best_metric": 1.0, |
|
"best_model_checkpoint": "vivit-b-16x2-kinetics400-finetuned-ucf101-subset/checkpoint-300", |
|
"epoch": 1.2, |
|
"eval_steps": 500, |
|
"global_step": 375, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.02666666666666667, |
|
"grad_norm": 26.16057777404785, |
|
"learning_rate": 1.3157894736842106e-05, |
|
"loss": 1.6354, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.05333333333333334, |
|
"grad_norm": 31.77731704711914, |
|
"learning_rate": 2.6315789473684212e-05, |
|
"loss": 1.7847, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"grad_norm": 27.00013542175293, |
|
"learning_rate": 3.9473684210526316e-05, |
|
"loss": 1.3461, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.10666666666666667, |
|
"grad_norm": 14.085402488708496, |
|
"learning_rate": 4.9703264094955494e-05, |
|
"loss": 0.9455, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 3.935500144958496, |
|
"learning_rate": 4.821958456973294e-05, |
|
"loss": 0.8311, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"grad_norm": 45.854618072509766, |
|
"learning_rate": 4.673590504451038e-05, |
|
"loss": 1.1512, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.18666666666666668, |
|
"grad_norm": 19.03603172302246, |
|
"learning_rate": 4.525222551928784e-05, |
|
"loss": 1.0856, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 25.127504348754883, |
|
"learning_rate": 4.3768545994065286e-05, |
|
"loss": 0.2805, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"grad_norm": 0.52326899766922, |
|
"learning_rate": 4.228486646884273e-05, |
|
"loss": 0.2028, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"grad_norm": 13.136799812316895, |
|
"learning_rate": 4.080118694362018e-05, |
|
"loss": 0.1505, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.29333333333333333, |
|
"grad_norm": 0.46199002861976624, |
|
"learning_rate": 3.9317507418397627e-05, |
|
"loss": 0.3442, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 0.3813219666481018, |
|
"learning_rate": 3.783382789317508e-05, |
|
"loss": 0.1747, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.3466666666666667, |
|
"grad_norm": 0.13699372112751007, |
|
"learning_rate": 3.635014836795252e-05, |
|
"loss": 0.0875, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.37333333333333335, |
|
"grad_norm": 0.09683661162853241, |
|
"learning_rate": 3.4866468842729974e-05, |
|
"loss": 0.1574, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 0.08154939115047455, |
|
"learning_rate": 3.338278931750742e-05, |
|
"loss": 0.098, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 0.6680712103843689, |
|
"learning_rate": 3.189910979228487e-05, |
|
"loss": 0.0165, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.4533333333333333, |
|
"grad_norm": 0.25971299409866333, |
|
"learning_rate": 3.0415430267062318e-05, |
|
"loss": 0.0104, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"grad_norm": 0.10908322036266327, |
|
"learning_rate": 2.8931750741839762e-05, |
|
"loss": 0.0242, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.5066666666666667, |
|
"grad_norm": 61.5093879699707, |
|
"learning_rate": 2.744807121661721e-05, |
|
"loss": 0.4965, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.5333333333333333, |
|
"grad_norm": 0.12317054718732834, |
|
"learning_rate": 2.5964391691394662e-05, |
|
"loss": 0.05, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"grad_norm": 0.24561965465545654, |
|
"learning_rate": 2.4480712166172106e-05, |
|
"loss": 0.1434, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.5866666666666667, |
|
"grad_norm": 0.14871960878372192, |
|
"learning_rate": 2.2997032640949558e-05, |
|
"loss": 0.182, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.6133333333333333, |
|
"grad_norm": 0.775602400302887, |
|
"learning_rate": 2.1513353115727002e-05, |
|
"loss": 0.0423, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 4.5359344482421875, |
|
"learning_rate": 2.0029673590504454e-05, |
|
"loss": 0.0139, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"grad_norm": 0.20286181569099426, |
|
"learning_rate": 1.85459940652819e-05, |
|
"loss": 0.0326, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.6933333333333334, |
|
"grad_norm": 0.26207369565963745, |
|
"learning_rate": 1.706231454005935e-05, |
|
"loss": 0.1962, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"grad_norm": 0.42223137617111206, |
|
"learning_rate": 1.5578635014836794e-05, |
|
"loss": 0.0079, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.7466666666666667, |
|
"grad_norm": 0.44567418098449707, |
|
"learning_rate": 1.4094955489614246e-05, |
|
"loss": 0.0046, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.7733333333333333, |
|
"grad_norm": 0.10151217132806778, |
|
"learning_rate": 1.2611275964391692e-05, |
|
"loss": 0.0046, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"grad_norm": 0.11583764851093292, |
|
"learning_rate": 1.112759643916914e-05, |
|
"loss": 0.0065, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"eval_accuracy": 1.0, |
|
"eval_loss": 0.005599180702120066, |
|
"eval_runtime": 26.9077, |
|
"eval_samples_per_second": 1.375, |
|
"eval_steps_per_second": 0.372, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.0266666666666666, |
|
"grad_norm": 0.20267748832702637, |
|
"learning_rate": 9.643916913946588e-06, |
|
"loss": 0.2505, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 1.0533333333333332, |
|
"grad_norm": 0.060426872223615646, |
|
"learning_rate": 8.160237388724036e-06, |
|
"loss": 0.0037, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"grad_norm": 0.07203783094882965, |
|
"learning_rate": 6.676557863501484e-06, |
|
"loss": 0.105, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 1.1066666666666667, |
|
"grad_norm": 0.20766057074069977, |
|
"learning_rate": 5.192878338278932e-06, |
|
"loss": 0.004, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.1333333333333333, |
|
"grad_norm": 0.05093280225992203, |
|
"learning_rate": 3.7091988130563796e-06, |
|
"loss": 0.0027, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"grad_norm": 0.03602894768118858, |
|
"learning_rate": 2.225519287833828e-06, |
|
"loss": 0.0153, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.1866666666666668, |
|
"grad_norm": 0.07658669352531433, |
|
"learning_rate": 7.41839762611276e-07, |
|
"loss": 0.0144, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"eval_accuracy": 1.0, |
|
"eval_loss": 0.005712784361094236, |
|
"eval_runtime": 26.3265, |
|
"eval_samples_per_second": 1.405, |
|
"eval_steps_per_second": 0.38, |
|
"step": 375 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"step": 375, |
|
"total_flos": 9.6083444588544e+17, |
|
"train_loss": 0.3174680873602629, |
|
"train_runtime": 672.4711, |
|
"train_samples_per_second": 0.558, |
|
"train_steps_per_second": 0.558 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"eval_accuracy": 1.0, |
|
"eval_loss": 0.0121864452958107, |
|
"eval_runtime": 60.6886, |
|
"eval_samples_per_second": 1.434, |
|
"eval_steps_per_second": 0.363, |
|
"step": 375 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 375, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 9223372036854775807, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 9.6083444588544e+17, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|