|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 3.0, |
|
"eval_steps": 500, |
|
"global_step": 21, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.14285714285714285, |
|
"grad_norm": 2.9118499755859375, |
|
"learning_rate": 1.3333333333333332e-05, |
|
"loss": 20.4696, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.2857142857142857, |
|
"grad_norm": 2.7225255966186523, |
|
"learning_rate": 1.2666666666666667e-05, |
|
"loss": 20.0947, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.42857142857142855, |
|
"grad_norm": 2.86543869972229, |
|
"learning_rate": 1.1999999999999999e-05, |
|
"loss": 19.6761, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.5714285714285714, |
|
"grad_norm": 3.0596110820770264, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 19.6481, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.7142857142857143, |
|
"grad_norm": 3.175290584564209, |
|
"learning_rate": 1.0666666666666666e-05, |
|
"loss": 19.8802, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.8571428571428571, |
|
"grad_norm": 3.1467244625091553, |
|
"learning_rate": 1e-05, |
|
"loss": 19.5356, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 3.512199878692627, |
|
"learning_rate": 9.333333333333333e-06, |
|
"loss": 19.9038, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 1.1428571428571428, |
|
"grad_norm": 3.4738128185272217, |
|
"learning_rate": 8.666666666666666e-06, |
|
"loss": 19.7367, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 1.2857142857142856, |
|
"grad_norm": 3.577171564102173, |
|
"learning_rate": 8e-06, |
|
"loss": 19.3016, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 1.4285714285714286, |
|
"grad_norm": 3.546138286590576, |
|
"learning_rate": 7.333333333333334e-06, |
|
"loss": 18.936, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 1.5714285714285714, |
|
"grad_norm": 3.5414226055145264, |
|
"learning_rate": 6.666666666666666e-06, |
|
"loss": 18.9518, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 1.7142857142857144, |
|
"grad_norm": 3.795091152191162, |
|
"learning_rate": 5.999999999999999e-06, |
|
"loss": 19.2526, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 1.8571428571428572, |
|
"grad_norm": 3.811957597732544, |
|
"learning_rate": 5.333333333333333e-06, |
|
"loss": 18.8642, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 4.036834239959717, |
|
"learning_rate": 4.666666666666666e-06, |
|
"loss": 19.0188, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 2.142857142857143, |
|
"grad_norm": 3.976689100265503, |
|
"learning_rate": 4e-06, |
|
"loss": 18.9342, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 2.2857142857142856, |
|
"grad_norm": 4.028744220733643, |
|
"learning_rate": 3.333333333333333e-06, |
|
"loss": 18.3953, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 2.4285714285714284, |
|
"grad_norm": 4.241710662841797, |
|
"learning_rate": 2.6666666666666664e-06, |
|
"loss": 19.1337, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 2.571428571428571, |
|
"grad_norm": 4.1740288734436035, |
|
"learning_rate": 2e-06, |
|
"loss": 18.7016, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 2.7142857142857144, |
|
"grad_norm": 4.073369026184082, |
|
"learning_rate": 1.3333333333333332e-06, |
|
"loss": 18.2428, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 2.857142857142857, |
|
"grad_norm": 3.877764940261841, |
|
"learning_rate": 6.666666666666666e-07, |
|
"loss": 18.5107, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"grad_norm": 4.145324230194092, |
|
"learning_rate": 0.0, |
|
"loss": 18.767, |
|
"step": 21 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 21, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 3, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 1.287872226490368e+16, |
|
"train_batch_size": 8, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|