|
{ |
|
"best_metric": 0.03921842947602272, |
|
"best_model_checkpoint": "my_awesome_model/checkpoint-30000", |
|
"epoch": 2.0, |
|
"eval_steps": 500, |
|
"global_step": 30000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 1.9666666666666666e-05, |
|
"loss": 0.1446, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 1.9333333333333333e-05, |
|
"loss": 0.0898, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 1.9e-05, |
|
"loss": 0.0545, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 1.866666666666667e-05, |
|
"loss": 0.0487, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 1.8333333333333333e-05, |
|
"loss": 0.0444, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 1.8e-05, |
|
"loss": 0.0443, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 1.7666666666666668e-05, |
|
"loss": 0.0439, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 1.7333333333333336e-05, |
|
"loss": 0.0291, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 1.7e-05, |
|
"loss": 0.0342, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.0332, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 1.6333333333333335e-05, |
|
"loss": 0.0345, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 1.6000000000000003e-05, |
|
"loss": 0.0232, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.5666666666666667e-05, |
|
"loss": 0.0266, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.5333333333333334e-05, |
|
"loss": 0.0276, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.5000000000000002e-05, |
|
"loss": 0.0303, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.4666666666666666e-05, |
|
"loss": 0.0254, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.4333333333333334e-05, |
|
"loss": 0.0214, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.4e-05, |
|
"loss": 0.0206, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.3666666666666667e-05, |
|
"loss": 0.0258, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.3333333333333333e-05, |
|
"loss": 0.0179, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 0.0184, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 1.2666666666666667e-05, |
|
"loss": 0.0221, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 1.2333333333333334e-05, |
|
"loss": 0.0187, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 1.2e-05, |
|
"loss": 0.0174, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 1.1666666666666668e-05, |
|
"loss": 0.0181, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 0.0176, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 0.0171, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 1.0666666666666667e-05, |
|
"loss": 0.0149, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 1.0333333333333335e-05, |
|
"loss": 0.0136, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 1e-05, |
|
"loss": 0.0178, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_accuracy": 0.9843833333333334, |
|
"eval_loss": 0.07496260851621628, |
|
"eval_runtime": 200.0448, |
|
"eval_samples_per_second": 299.933, |
|
"eval_steps_per_second": 18.746, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 9.666666666666667e-06, |
|
"loss": 0.0039, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 9.333333333333334e-06, |
|
"loss": 0.0061, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 9e-06, |
|
"loss": 0.0114, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 8.666666666666668e-06, |
|
"loss": 0.0039, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.0075, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 0.0037, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 7.666666666666667e-06, |
|
"loss": 0.0105, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 7.333333333333333e-06, |
|
"loss": 0.0058, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"learning_rate": 7e-06, |
|
"loss": 0.0036, |
|
"step": 19500 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 6.666666666666667e-06, |
|
"loss": 0.0079, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 6.333333333333333e-06, |
|
"loss": 0.0091, |
|
"step": 20500 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 6e-06, |
|
"loss": 0.0054, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 5.666666666666667e-06, |
|
"loss": 0.0013, |
|
"step": 21500 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 5.333333333333334e-06, |
|
"loss": 0.0104, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"learning_rate": 5e-06, |
|
"loss": 0.0037, |
|
"step": 22500 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 4.666666666666667e-06, |
|
"loss": 0.0044, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 1.57, |
|
"learning_rate": 4.333333333333334e-06, |
|
"loss": 0.0047, |
|
"step": 23500 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 0.0035, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 1.63, |
|
"learning_rate": 3.6666666666666666e-06, |
|
"loss": 0.0026, |
|
"step": 24500 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 0.0033, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"learning_rate": 3e-06, |
|
"loss": 0.0027, |
|
"step": 25500 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 2.666666666666667e-06, |
|
"loss": 0.002, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 2.3333333333333336e-06, |
|
"loss": 0.001, |
|
"step": 26500 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 0.0014, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 0.004, |
|
"step": 27500 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 1.3333333333333334e-06, |
|
"loss": 0.0016, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 0.0027, |
|
"step": 28500 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 6.666666666666667e-07, |
|
"loss": 0.0026, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 3.3333333333333335e-07, |
|
"loss": 0.0007, |
|
"step": 29500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 0.0, |
|
"loss": 0.0016, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_accuracy": 0.9938666666666667, |
|
"eval_loss": 0.03921842947602272, |
|
"eval_runtime": 201.1467, |
|
"eval_samples_per_second": 298.29, |
|
"eval_steps_per_second": 18.643, |
|
"step": 30000 |
|
} |
|
], |
|
"logging_steps": 500, |
|
"max_steps": 30000, |
|
"num_train_epochs": 2, |
|
"save_steps": 500, |
|
"total_flos": 4.559380077797894e+16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|