|
{ |
|
"best_metric": 0.7650650143623352, |
|
"best_model_checkpoint": "./vit-base-renovation/checkpoint-200", |
|
"epoch": 8.0, |
|
"global_step": 480, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 0.00019583333333333334, |
|
"loss": 1.0402, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 0.00019166666666666667, |
|
"loss": 0.9827, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 0.0001875, |
|
"loss": 0.9183, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 0.00018333333333333334, |
|
"loss": 1.0276, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 0.0001791666666666667, |
|
"loss": 1.0298, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 0.000175, |
|
"loss": 1.0427, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 0.00017083333333333333, |
|
"loss": 0.9752, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 0.0001666666666666667, |
|
"loss": 0.9352, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"learning_rate": 0.00016250000000000002, |
|
"loss": 0.9524, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 0.00015833333333333332, |
|
"loss": 0.9092, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"eval_accuracy": 0.5686274509803921, |
|
"eval_loss": 0.828122615814209, |
|
"eval_runtime": 2.4102, |
|
"eval_samples_per_second": 21.16, |
|
"eval_steps_per_second": 2.904, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 0.00015416666666666668, |
|
"loss": 1.0012, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 0.00015000000000000001, |
|
"loss": 0.8633, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 0.00014625, |
|
"loss": 0.8039, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 0.00014208333333333334, |
|
"loss": 0.6671, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"learning_rate": 0.00013791666666666667, |
|
"loss": 0.7614, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 0.00013375, |
|
"loss": 0.7356, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"learning_rate": 0.00012958333333333336, |
|
"loss": 0.7792, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"learning_rate": 0.00012541666666666666, |
|
"loss": 0.7458, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 3.17, |
|
"learning_rate": 0.00012124999999999999, |
|
"loss": 0.5359, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 3.33, |
|
"learning_rate": 0.00011708333333333335, |
|
"loss": 0.3809, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 3.33, |
|
"eval_accuracy": 0.6666666666666666, |
|
"eval_loss": 0.7650650143623352, |
|
"eval_runtime": 2.3488, |
|
"eval_samples_per_second": 21.713, |
|
"eval_steps_per_second": 2.98, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 3.5, |
|
"learning_rate": 0.00011291666666666667, |
|
"loss": 0.3832, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 3.67, |
|
"learning_rate": 0.00010875, |
|
"loss": 0.4645, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 3.83, |
|
"learning_rate": 0.00010458333333333335, |
|
"loss": 0.4131, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 0.00010041666666666666, |
|
"loss": 0.5098, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 4.17, |
|
"learning_rate": 9.625000000000001e-05, |
|
"loss": 0.2046, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 4.33, |
|
"learning_rate": 9.208333333333333e-05, |
|
"loss": 0.1603, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 4.5, |
|
"learning_rate": 8.791666666666667e-05, |
|
"loss": 0.1362, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 4.67, |
|
"learning_rate": 8.375e-05, |
|
"loss": 0.1255, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 4.83, |
|
"learning_rate": 7.958333333333333e-05, |
|
"loss": 0.1471, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"learning_rate": 7.541666666666667e-05, |
|
"loss": 0.1873, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"eval_accuracy": 0.6666666666666666, |
|
"eval_loss": 1.0181704759597778, |
|
"eval_runtime": 2.4305, |
|
"eval_samples_per_second": 20.983, |
|
"eval_steps_per_second": 2.88, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 5.17, |
|
"learning_rate": 7.125000000000001e-05, |
|
"loss": 0.0605, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 5.33, |
|
"learning_rate": 6.708333333333333e-05, |
|
"loss": 0.0432, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 5.5, |
|
"learning_rate": 6.291666666666667e-05, |
|
"loss": 0.0339, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 5.67, |
|
"learning_rate": 5.8750000000000005e-05, |
|
"loss": 0.0386, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 5.83, |
|
"learning_rate": 5.458333333333333e-05, |
|
"loss": 0.0371, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"learning_rate": 5.041666666666667e-05, |
|
"loss": 0.0353, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 6.17, |
|
"learning_rate": 4.6250000000000006e-05, |
|
"loss": 0.0223, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 6.33, |
|
"learning_rate": 4.208333333333334e-05, |
|
"loss": 0.0215, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 6.5, |
|
"learning_rate": 3.791666666666667e-05, |
|
"loss": 0.0214, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 6.67, |
|
"learning_rate": 3.375000000000001e-05, |
|
"loss": 0.019, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 6.67, |
|
"eval_accuracy": 0.6470588235294118, |
|
"eval_loss": 1.2346100807189941, |
|
"eval_runtime": 2.3302, |
|
"eval_samples_per_second": 21.886, |
|
"eval_steps_per_second": 3.004, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 6.83, |
|
"learning_rate": 2.9583333333333335e-05, |
|
"loss": 0.0191, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"learning_rate": 2.5416666666666667e-05, |
|
"loss": 0.0189, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 7.17, |
|
"learning_rate": 2.125e-05, |
|
"loss": 0.0179, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 7.33, |
|
"learning_rate": 1.7083333333333333e-05, |
|
"loss": 0.0174, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 7.5, |
|
"learning_rate": 1.2916666666666668e-05, |
|
"loss": 0.0173, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 7.67, |
|
"learning_rate": 8.75e-06, |
|
"loss": 0.017, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 7.83, |
|
"learning_rate": 4.583333333333333e-06, |
|
"loss": 0.0168, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"learning_rate": 4.1666666666666667e-07, |
|
"loss": 0.0168, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"step": 480, |
|
"total_flos": 5.945238728048148e+17, |
|
"train_loss": 0.42277156077325345, |
|
"train_runtime": 658.9186, |
|
"train_samples_per_second": 11.643, |
|
"train_steps_per_second": 0.728 |
|
} |
|
], |
|
"max_steps": 480, |
|
"num_train_epochs": 8, |
|
"total_flos": 5.945238728048148e+17, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|