|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 2.0, |
|
"eval_steps": 500, |
|
"global_step": 300, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.006666666666666667, |
|
"grad_norm": 0.00967087643258726, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 0.0315, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.013333333333333334, |
|
"grad_norm": 0.012198302107289087, |
|
"learning_rate": 6.666666666666667e-06, |
|
"loss": 0.0417, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"grad_norm": 0.014022062683757143, |
|
"learning_rate": 1e-05, |
|
"loss": 0.03, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.02666666666666667, |
|
"grad_norm": 0.008269651030018952, |
|
"learning_rate": 1.3333333333333333e-05, |
|
"loss": 0.0243, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.03333333333333333, |
|
"grad_norm": 0.012372899187754645, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.0477, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"grad_norm": 0.012508852587789653, |
|
"learning_rate": 2e-05, |
|
"loss": 0.0338, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.04666666666666667, |
|
"grad_norm": 0.011987367759438185, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 0.0323, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.05333333333333334, |
|
"grad_norm": 0.013190269985375314, |
|
"learning_rate": 2.6666666666666667e-05, |
|
"loss": 0.0281, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"grad_norm": 0.011301264956046317, |
|
"learning_rate": 3e-05, |
|
"loss": 0.0424, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"grad_norm": 0.011189756741621364, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.0449, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.07333333333333333, |
|
"grad_norm": 0.011061417901602692, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 0.0335, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"grad_norm": 0.009824024434060163, |
|
"learning_rate": 4e-05, |
|
"loss": 0.0268, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.08666666666666667, |
|
"grad_norm": 0.010215511586011566, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 0.0411, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.09333333333333334, |
|
"grad_norm": 0.010220192058886605, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 0.032, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"grad_norm": 0.013572486493102996, |
|
"learning_rate": 5e-05, |
|
"loss": 0.0425, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.10666666666666667, |
|
"grad_norm": 0.015783332346053523, |
|
"learning_rate": 5.333333333333333e-05, |
|
"loss": 0.0453, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.11333333333333333, |
|
"grad_norm": 0.014048466265469036, |
|
"learning_rate": 5.666666666666667e-05, |
|
"loss": 0.0466, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"grad_norm": 0.010950797334743695, |
|
"learning_rate": 6e-05, |
|
"loss": 0.0256, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.12666666666666668, |
|
"grad_norm": 0.014478024703496588, |
|
"learning_rate": 6.333333333333333e-05, |
|
"loss": 0.0292, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 0.0133927702738894, |
|
"learning_rate": 6.666666666666667e-05, |
|
"loss": 0.0284, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"grad_norm": 0.013975151839247663, |
|
"learning_rate": 7e-05, |
|
"loss": 0.0233, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.14666666666666667, |
|
"grad_norm": 0.015056425781639236, |
|
"learning_rate": 7.333333333333333e-05, |
|
"loss": 0.0356, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 0.15333333333333332, |
|
"grad_norm": 0.01362161636291075, |
|
"learning_rate": 7.666666666666667e-05, |
|
"loss": 0.02, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"grad_norm": 0.009454330656213315, |
|
"learning_rate": 8e-05, |
|
"loss": 0.0161, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 0.16666666666666666, |
|
"grad_norm": 0.024946924294146838, |
|
"learning_rate": 8.333333333333334e-05, |
|
"loss": 0.0235, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.17333333333333334, |
|
"grad_norm": 0.019099440836747708, |
|
"learning_rate": 8.666666666666667e-05, |
|
"loss": 0.0186, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"grad_norm": 0.016019635168110606, |
|
"learning_rate": 9e-05, |
|
"loss": 0.0249, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 0.18666666666666668, |
|
"grad_norm": 0.014869434137459102, |
|
"learning_rate": 9.333333333333334e-05, |
|
"loss": 0.0154, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.19333333333333333, |
|
"grad_norm": 0.01634346670195241, |
|
"learning_rate": 9.666666666666667e-05, |
|
"loss": 0.0216, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 0.024211720204093866, |
|
"learning_rate": 0.0001, |
|
"loss": 0.0275, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.20666666666666667, |
|
"grad_norm": 0.01731104354317443, |
|
"learning_rate": 9.999661540018812e-05, |
|
"loss": 0.0184, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 0.018529685153008804, |
|
"learning_rate": 9.998646205897309e-05, |
|
"loss": 0.0148, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"grad_norm": 0.0256495919934072, |
|
"learning_rate": 9.99695413509548e-05, |
|
"loss": 0.016, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 0.22666666666666666, |
|
"grad_norm": 0.017470007572512165, |
|
"learning_rate": 9.994585556692624e-05, |
|
"loss": 0.0102, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 0.23333333333333334, |
|
"grad_norm": 0.031168775720272036, |
|
"learning_rate": 9.991540791356342e-05, |
|
"loss": 0.01, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"grad_norm": 0.018270117024426165, |
|
"learning_rate": 9.987820251299122e-05, |
|
"loss": 0.0044, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 0.24666666666666667, |
|
"grad_norm": 0.016336901566411082, |
|
"learning_rate": 9.983424440222531e-05, |
|
"loss": 0.005, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 0.25333333333333335, |
|
"grad_norm": 0.04531070350535694, |
|
"learning_rate": 9.978353953249022e-05, |
|
"loss": 0.0131, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"grad_norm": 0.015875543621345366, |
|
"learning_rate": 9.972609476841367e-05, |
|
"loss": 0.0048, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"grad_norm": 0.006054555721457368, |
|
"learning_rate": 9.966191788709716e-05, |
|
"loss": 0.0011, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.2733333333333333, |
|
"grad_norm": 0.05714340119771482, |
|
"learning_rate": 9.959101757706308e-05, |
|
"loss": 0.0062, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"grad_norm": 0.0581049582717705, |
|
"learning_rate": 9.951340343707852e-05, |
|
"loss": 0.0197, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 0.2866666666666667, |
|
"grad_norm": 0.015324966471844476, |
|
"learning_rate": 9.942908597485558e-05, |
|
"loss": 0.0023, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 0.29333333333333333, |
|
"grad_norm": 0.011825527679700156, |
|
"learning_rate": 9.933807660562898e-05, |
|
"loss": 0.0035, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"grad_norm": 0.034238370616719443, |
|
"learning_rate": 9.924038765061042e-05, |
|
"loss": 0.0063, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 0.30666666666666664, |
|
"grad_norm": 0.030875108384523845, |
|
"learning_rate": 9.913603233532067e-05, |
|
"loss": 0.0048, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 0.31333333333333335, |
|
"grad_norm": 0.01476244386643189, |
|
"learning_rate": 9.902502478779896e-05, |
|
"loss": 0.003, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 0.05528926239116165, |
|
"learning_rate": 9.890738003669029e-05, |
|
"loss": 0.0031, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 0.32666666666666666, |
|
"grad_norm": 0.004459967178340741, |
|
"learning_rate": 9.878311400921072e-05, |
|
"loss": 0.0004, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"grad_norm": 0.046555210646714744, |
|
"learning_rate": 9.865224352899119e-05, |
|
"loss": 0.0198, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"grad_norm": 0.004304158218457285, |
|
"learning_rate": 9.851478631379982e-05, |
|
"loss": 0.0006, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 0.3466666666666667, |
|
"grad_norm": 0.0077248051621680615, |
|
"learning_rate": 9.837076097314319e-05, |
|
"loss": 0.0013, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 0.35333333333333333, |
|
"grad_norm": 0.011455385726854096, |
|
"learning_rate": 9.822018700574695e-05, |
|
"loss": 0.0034, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"grad_norm": 0.003095065036607566, |
|
"learning_rate": 9.806308479691595e-05, |
|
"loss": 0.0006, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 0.36666666666666664, |
|
"grad_norm": 0.004181875576498225, |
|
"learning_rate": 9.789947561577445e-05, |
|
"loss": 0.0009, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 0.37333333333333335, |
|
"grad_norm": 0.006158404524468072, |
|
"learning_rate": 9.77293816123866e-05, |
|
"loss": 0.0008, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"grad_norm": 0.008314436275374941, |
|
"learning_rate": 9.755282581475769e-05, |
|
"loss": 0.0027, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 0.38666666666666666, |
|
"grad_norm": 0.06915445455845264, |
|
"learning_rate": 9.736983212571646e-05, |
|
"loss": 0.0043, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 0.3933333333333333, |
|
"grad_norm": 0.019390669360603612, |
|
"learning_rate": 9.718042531967918e-05, |
|
"loss": 0.0118, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 0.0073812392540185566, |
|
"learning_rate": 9.698463103929542e-05, |
|
"loss": 0.0022, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.4066666666666667, |
|
"grad_norm": 0.03984070529449738, |
|
"learning_rate": 9.678247579197657e-05, |
|
"loss": 0.0158, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 0.41333333333333333, |
|
"grad_norm": 0.01759042695384761, |
|
"learning_rate": 9.657398694630712e-05, |
|
"loss": 0.0026, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"grad_norm": 0.01443541109705055, |
|
"learning_rate": 9.635919272833938e-05, |
|
"loss": 0.0056, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 0.0029916340614916264, |
|
"learning_rate": 9.613812221777212e-05, |
|
"loss": 0.0008, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 0.43333333333333335, |
|
"grad_norm": 0.010079091333704606, |
|
"learning_rate": 9.591080534401371e-05, |
|
"loss": 0.0025, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"grad_norm": 0.030533828875748008, |
|
"learning_rate": 9.567727288213005e-05, |
|
"loss": 0.0027, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 0.44666666666666666, |
|
"grad_norm": 0.0021484341111415047, |
|
"learning_rate": 9.543755644867822e-05, |
|
"loss": 0.0005, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 0.4533333333333333, |
|
"grad_norm": 0.0010639708867223676, |
|
"learning_rate": 9.519168849742604e-05, |
|
"loss": 0.0002, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"grad_norm": 0.002981140502468205, |
|
"learning_rate": 9.493970231495835e-05, |
|
"loss": 0.0005, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 0.4666666666666667, |
|
"grad_norm": 0.01462624424933535, |
|
"learning_rate": 9.468163201617062e-05, |
|
"loss": 0.0022, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.47333333333333333, |
|
"grad_norm": 0.002117947541178246, |
|
"learning_rate": 9.441751253965021e-05, |
|
"loss": 0.0005, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"grad_norm": 0.016345300330464267, |
|
"learning_rate": 9.414737964294636e-05, |
|
"loss": 0.0021, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 0.4866666666666667, |
|
"grad_norm": 0.0020507000217069725, |
|
"learning_rate": 9.38712698977291e-05, |
|
"loss": 0.0004, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 0.49333333333333335, |
|
"grad_norm": 0.007755335039015313, |
|
"learning_rate": 9.358922068483812e-05, |
|
"loss": 0.0013, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"grad_norm": 0.0022756024859676826, |
|
"learning_rate": 9.330127018922194e-05, |
|
"loss": 0.0003, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.5066666666666667, |
|
"grad_norm": 0.0031607725863065515, |
|
"learning_rate": 9.300745739476829e-05, |
|
"loss": 0.0006, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 0.5133333333333333, |
|
"grad_norm": 0.018364989281173326, |
|
"learning_rate": 9.270782207902629e-05, |
|
"loss": 0.0044, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"grad_norm": 0.011239985576371911, |
|
"learning_rate": 9.24024048078213e-05, |
|
"loss": 0.0009, |
|
"step": 78 |
|
}, |
|
{ |
|
"epoch": 0.5266666666666666, |
|
"grad_norm": 0.013567407892295776, |
|
"learning_rate": 9.209124692976287e-05, |
|
"loss": 0.0029, |
|
"step": 79 |
|
}, |
|
{ |
|
"epoch": 0.5333333333333333, |
|
"grad_norm": 0.0007607080462683458, |
|
"learning_rate": 9.177439057064683e-05, |
|
"loss": 0.0002, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"grad_norm": 0.006039752535087157, |
|
"learning_rate": 9.145187862775209e-05, |
|
"loss": 0.0011, |
|
"step": 81 |
|
}, |
|
{ |
|
"epoch": 0.5466666666666666, |
|
"grad_norm": 0.005104694619000343, |
|
"learning_rate": 9.112375476403312e-05, |
|
"loss": 0.0004, |
|
"step": 82 |
|
}, |
|
{ |
|
"epoch": 0.5533333333333333, |
|
"grad_norm": 0.026544969220163063, |
|
"learning_rate": 9.079006340220862e-05, |
|
"loss": 0.0021, |
|
"step": 83 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"grad_norm": 0.015386517732440796, |
|
"learning_rate": 9.045084971874738e-05, |
|
"loss": 0.0028, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 0.5666666666666667, |
|
"grad_norm": 0.007804358536532015, |
|
"learning_rate": 9.01061596377522e-05, |
|
"loss": 0.001, |
|
"step": 85 |
|
}, |
|
{ |
|
"epoch": 0.5733333333333334, |
|
"grad_norm": 0.003239379494652739, |
|
"learning_rate": 8.97560398247424e-05, |
|
"loss": 0.0003, |
|
"step": 86 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"grad_norm": 0.00042549832931497883, |
|
"learning_rate": 8.940053768033609e-05, |
|
"loss": 0.0, |
|
"step": 87 |
|
}, |
|
{ |
|
"epoch": 0.5866666666666667, |
|
"grad_norm": 0.005937174449118275, |
|
"learning_rate": 8.903970133383297e-05, |
|
"loss": 0.0015, |
|
"step": 88 |
|
}, |
|
{ |
|
"epoch": 0.5933333333333334, |
|
"grad_norm": 0.02354358812592331, |
|
"learning_rate": 8.86735796366982e-05, |
|
"loss": 0.006, |
|
"step": 89 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"grad_norm": 0.0019227058601935995, |
|
"learning_rate": 8.83022221559489e-05, |
|
"loss": 0.0002, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.6066666666666667, |
|
"grad_norm": 0.020691001434167206, |
|
"learning_rate": 8.792567916744346e-05, |
|
"loss": 0.0034, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 0.6133333333333333, |
|
"grad_norm": 0.021131562745172486, |
|
"learning_rate": 8.754400164907497e-05, |
|
"loss": 0.0033, |
|
"step": 92 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"grad_norm": 0.00025259438632459165, |
|
"learning_rate": 8.715724127386972e-05, |
|
"loss": 0.0, |
|
"step": 93 |
|
}, |
|
{ |
|
"epoch": 0.6266666666666667, |
|
"grad_norm": 0.0013328194161697582, |
|
"learning_rate": 8.676545040299145e-05, |
|
"loss": 0.0002, |
|
"step": 94 |
|
}, |
|
{ |
|
"epoch": 0.6333333333333333, |
|
"grad_norm": 0.0005549120557486886, |
|
"learning_rate": 8.636868207865244e-05, |
|
"loss": 0.0001, |
|
"step": 95 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 0.024489856240846826, |
|
"learning_rate": 8.596699001693255e-05, |
|
"loss": 0.0049, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 0.6466666666666666, |
|
"grad_norm": 0.0007414977635572536, |
|
"learning_rate": 8.556042860050687e-05, |
|
"loss": 0.0001, |
|
"step": 97 |
|
}, |
|
{ |
|
"epoch": 0.6533333333333333, |
|
"grad_norm": 0.00847572433731991, |
|
"learning_rate": 8.51490528712831e-05, |
|
"loss": 0.0013, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"grad_norm": 0.008049875422573089, |
|
"learning_rate": 8.473291852294987e-05, |
|
"loss": 0.0006, |
|
"step": 99 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"grad_norm": 0.010377156047595074, |
|
"learning_rate": 8.43120818934367e-05, |
|
"loss": 0.0009, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.6733333333333333, |
|
"grad_norm": 0.014536621843167112, |
|
"learning_rate": 8.388659995728663e-05, |
|
"loss": 0.0012, |
|
"step": 101 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"grad_norm": 0.0007576728976144414, |
|
"learning_rate": 8.345653031794292e-05, |
|
"loss": 0.0001, |
|
"step": 102 |
|
}, |
|
{ |
|
"epoch": 0.6866666666666666, |
|
"grad_norm": 0.015731956723794873, |
|
"learning_rate": 8.302193119995039e-05, |
|
"loss": 0.0016, |
|
"step": 103 |
|
}, |
|
{ |
|
"epoch": 0.6933333333333334, |
|
"grad_norm": 0.0009144368341089811, |
|
"learning_rate": 8.258286144107276e-05, |
|
"loss": 0.0001, |
|
"step": 104 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"grad_norm": 0.001594173121561522, |
|
"learning_rate": 8.213938048432697e-05, |
|
"loss": 0.0001, |
|
"step": 105 |
|
}, |
|
{ |
|
"epoch": 0.7066666666666667, |
|
"grad_norm": 0.00284738230759981, |
|
"learning_rate": 8.169154836993551e-05, |
|
"loss": 0.0004, |
|
"step": 106 |
|
}, |
|
{ |
|
"epoch": 0.7133333333333334, |
|
"grad_norm": 0.025592931651606612, |
|
"learning_rate": 8.1239425727198e-05, |
|
"loss": 0.0083, |
|
"step": 107 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"grad_norm": 0.0001940740194679064, |
|
"learning_rate": 8.07830737662829e-05, |
|
"loss": 0.0, |
|
"step": 108 |
|
}, |
|
{ |
|
"epoch": 0.7266666666666667, |
|
"grad_norm": 0.0056603464085194545, |
|
"learning_rate": 8.032255426994069e-05, |
|
"loss": 0.0004, |
|
"step": 109 |
|
}, |
|
{ |
|
"epoch": 0.7333333333333333, |
|
"grad_norm": 0.004120222762330971, |
|
"learning_rate": 7.985792958513931e-05, |
|
"loss": 0.0004, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"grad_norm": 0.0021587181635031624, |
|
"learning_rate": 7.938926261462366e-05, |
|
"loss": 0.0002, |
|
"step": 111 |
|
}, |
|
{ |
|
"epoch": 0.7466666666666667, |
|
"grad_norm": 0.0065846662680188565, |
|
"learning_rate": 7.891661680839932e-05, |
|
"loss": 0.0003, |
|
"step": 112 |
|
}, |
|
{ |
|
"epoch": 0.7533333333333333, |
|
"grad_norm": 0.00029109185674515734, |
|
"learning_rate": 7.844005615514259e-05, |
|
"loss": 0.0, |
|
"step": 113 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"grad_norm": 0.0005731156726337066, |
|
"learning_rate": 7.795964517353735e-05, |
|
"loss": 0.0, |
|
"step": 114 |
|
}, |
|
{ |
|
"epoch": 0.7666666666666667, |
|
"grad_norm": 0.0009206403502226664, |
|
"learning_rate": 7.74754489035403e-05, |
|
"loss": 0.0001, |
|
"step": 115 |
|
}, |
|
{ |
|
"epoch": 0.7733333333333333, |
|
"grad_norm": 0.0073727128075126765, |
|
"learning_rate": 7.698753289757565e-05, |
|
"loss": 0.0006, |
|
"step": 116 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"grad_norm": 0.002238411555536974, |
|
"learning_rate": 7.649596321166024e-05, |
|
"loss": 0.0001, |
|
"step": 117 |
|
}, |
|
{ |
|
"epoch": 0.7866666666666666, |
|
"grad_norm": 0.004200168325451404, |
|
"learning_rate": 7.600080639646077e-05, |
|
"loss": 0.0001, |
|
"step": 118 |
|
}, |
|
{ |
|
"epoch": 0.7933333333333333, |
|
"grad_norm": 0.0001976205570407636, |
|
"learning_rate": 7.550212948828377e-05, |
|
"loss": 0.0, |
|
"step": 119 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"grad_norm": 7.421201689659983e-05, |
|
"learning_rate": 7.500000000000001e-05, |
|
"loss": 0.0, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.8066666666666666, |
|
"grad_norm": 0.0006245337641375594, |
|
"learning_rate": 7.449448591190435e-05, |
|
"loss": 0.0001, |
|
"step": 121 |
|
}, |
|
{ |
|
"epoch": 0.8133333333333334, |
|
"grad_norm": 9.263521826908537e-05, |
|
"learning_rate": 7.398565566251232e-05, |
|
"loss": 0.0, |
|
"step": 122 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"grad_norm": 0.005512512351078, |
|
"learning_rate": 7.347357813929454e-05, |
|
"loss": 0.0004, |
|
"step": 123 |
|
}, |
|
{ |
|
"epoch": 0.8266666666666667, |
|
"grad_norm": 0.04389098938372692, |
|
"learning_rate": 7.295832266935059e-05, |
|
"loss": 0.0094, |
|
"step": 124 |
|
}, |
|
{ |
|
"epoch": 0.8333333333333334, |
|
"grad_norm": 0.0009461125656580147, |
|
"learning_rate": 7.243995901002312e-05, |
|
"loss": 0.0001, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"grad_norm": 0.011133778348866936, |
|
"learning_rate": 7.191855733945387e-05, |
|
"loss": 0.0004, |
|
"step": 126 |
|
}, |
|
{ |
|
"epoch": 0.8466666666666667, |
|
"grad_norm": 0.0010120401801284526, |
|
"learning_rate": 7.139418824708272e-05, |
|
"loss": 0.0, |
|
"step": 127 |
|
}, |
|
{ |
|
"epoch": 0.8533333333333334, |
|
"grad_norm": 0.0011052048837631705, |
|
"learning_rate": 7.08669227240909e-05, |
|
"loss": 0.0001, |
|
"step": 128 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"grad_norm": 0.00029410186681222135, |
|
"learning_rate": 7.033683215379002e-05, |
|
"loss": 0.0, |
|
"step": 129 |
|
}, |
|
{ |
|
"epoch": 0.8666666666666667, |
|
"grad_norm": 0.006704138375048711, |
|
"learning_rate": 6.980398830195785e-05, |
|
"loss": 0.0005, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.8733333333333333, |
|
"grad_norm": 0.0004588362133973304, |
|
"learning_rate": 6.926846330712242e-05, |
|
"loss": 0.0001, |
|
"step": 131 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"grad_norm": 0.0002808157903386415, |
|
"learning_rate": 6.873032967079561e-05, |
|
"loss": 0.0, |
|
"step": 132 |
|
}, |
|
{ |
|
"epoch": 0.8866666666666667, |
|
"grad_norm": 0.02762950082967642, |
|
"learning_rate": 6.818966024765758e-05, |
|
"loss": 0.0056, |
|
"step": 133 |
|
}, |
|
{ |
|
"epoch": 0.8933333333333333, |
|
"grad_norm": 0.00063193960128327, |
|
"learning_rate": 6.764652823569344e-05, |
|
"loss": 0.0, |
|
"step": 134 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"grad_norm": 0.0019058638092664551, |
|
"learning_rate": 6.710100716628344e-05, |
|
"loss": 0.0001, |
|
"step": 135 |
|
}, |
|
{ |
|
"epoch": 0.9066666666666666, |
|
"grad_norm": 0.00037900560437210203, |
|
"learning_rate": 6.65531708942479e-05, |
|
"loss": 0.0, |
|
"step": 136 |
|
}, |
|
{ |
|
"epoch": 0.9133333333333333, |
|
"grad_norm": 4.7041010489096454e-05, |
|
"learning_rate": 6.600309358784857e-05, |
|
"loss": 0.0, |
|
"step": 137 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"grad_norm": 0.0003772042622626548, |
|
"learning_rate": 6.545084971874738e-05, |
|
"loss": 0.0001, |
|
"step": 138 |
|
}, |
|
{ |
|
"epoch": 0.9266666666666666, |
|
"grad_norm": 0.0005111974250469945, |
|
"learning_rate": 6.48965140519241e-05, |
|
"loss": 0.0001, |
|
"step": 139 |
|
}, |
|
{ |
|
"epoch": 0.9333333333333333, |
|
"grad_norm": 0.003435937781313453, |
|
"learning_rate": 6.434016163555452e-05, |
|
"loss": 0.0002, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"grad_norm": 0.0002783358136261871, |
|
"learning_rate": 6.378186779084995e-05, |
|
"loss": 0.0, |
|
"step": 141 |
|
}, |
|
{ |
|
"epoch": 0.9466666666666667, |
|
"grad_norm": 0.008212545234456864, |
|
"learning_rate": 6.322170810186012e-05, |
|
"loss": 0.0003, |
|
"step": 142 |
|
}, |
|
{ |
|
"epoch": 0.9533333333333334, |
|
"grad_norm": 0.0023180823029756745, |
|
"learning_rate": 6.26597584052401e-05, |
|
"loss": 0.0002, |
|
"step": 143 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"grad_norm": 0.0007084525788665694, |
|
"learning_rate": 6.209609477998338e-05, |
|
"loss": 0.0001, |
|
"step": 144 |
|
}, |
|
{ |
|
"epoch": 0.9666666666666667, |
|
"grad_norm": 0.001703467941721786, |
|
"learning_rate": 6.153079353712201e-05, |
|
"loss": 0.0002, |
|
"step": 145 |
|
}, |
|
{ |
|
"epoch": 0.9733333333333334, |
|
"grad_norm": 0.0011313116728255404, |
|
"learning_rate": 6.096393120939516e-05, |
|
"loss": 0.0002, |
|
"step": 146 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"grad_norm": 0.001049281836425577, |
|
"learning_rate": 6.0395584540887963e-05, |
|
"loss": 0.0001, |
|
"step": 147 |
|
}, |
|
{ |
|
"epoch": 0.9866666666666667, |
|
"grad_norm": 0.002822392868771578, |
|
"learning_rate": 5.982583047664151e-05, |
|
"loss": 0.0003, |
|
"step": 148 |
|
}, |
|
{ |
|
"epoch": 0.9933333333333333, |
|
"grad_norm": 0.0020112239901002122, |
|
"learning_rate": 5.925474615223573e-05, |
|
"loss": 0.0001, |
|
"step": 149 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 0.00080213562574699, |
|
"learning_rate": 5.868240888334653e-05, |
|
"loss": 0.0001, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_loss": 0.026990024372935295, |
|
"eval_runtime": 0.4242, |
|
"eval_samples_per_second": 2.357, |
|
"eval_steps_per_second": 2.357, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 1.0066666666666666, |
|
"grad_norm": 0.00010575814813841568, |
|
"learning_rate": 5.810889615527838e-05, |
|
"loss": 0.0, |
|
"step": 151 |
|
}, |
|
{ |
|
"epoch": 1.0133333333333334, |
|
"grad_norm": 0.00294695077228833, |
|
"learning_rate": 5.753428561247416e-05, |
|
"loss": 0.0003, |
|
"step": 152 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"grad_norm": 0.00026047749298656596, |
|
"learning_rate": 5.695865504800327e-05, |
|
"loss": 0.0, |
|
"step": 153 |
|
}, |
|
{ |
|
"epoch": 1.0266666666666666, |
|
"grad_norm": 6.726172248511204e-05, |
|
"learning_rate": 5.6382082393029746e-05, |
|
"loss": 0.0, |
|
"step": 154 |
|
}, |
|
{ |
|
"epoch": 1.0333333333333334, |
|
"grad_norm": 0.00015364990763760785, |
|
"learning_rate": 5.5804645706261514e-05, |
|
"loss": 0.0, |
|
"step": 155 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"grad_norm": 0.0009862920458867182, |
|
"learning_rate": 5.522642316338268e-05, |
|
"loss": 0.0001, |
|
"step": 156 |
|
}, |
|
{ |
|
"epoch": 1.0466666666666666, |
|
"grad_norm": 0.0002564758825908777, |
|
"learning_rate": 5.464749304646962e-05, |
|
"loss": 0.0, |
|
"step": 157 |
|
}, |
|
{ |
|
"epoch": 1.0533333333333332, |
|
"grad_norm": 0.00024434467078920426, |
|
"learning_rate": 5.4067933733392915e-05, |
|
"loss": 0.0, |
|
"step": 158 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"grad_norm": 0.0015525359957012507, |
|
"learning_rate": 5.348782368720626e-05, |
|
"loss": 0.0001, |
|
"step": 159 |
|
}, |
|
{ |
|
"epoch": 1.0666666666666667, |
|
"grad_norm": 0.0007699053259521967, |
|
"learning_rate": 5.290724144552379e-05, |
|
"loss": 0.0001, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 1.0733333333333333, |
|
"grad_norm": 0.00025965464551978477, |
|
"learning_rate": 5.232626560988735e-05, |
|
"loss": 0.0, |
|
"step": 161 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"grad_norm": 0.0006500885336070642, |
|
"learning_rate": 5.174497483512506e-05, |
|
"loss": 0.0001, |
|
"step": 162 |
|
}, |
|
{ |
|
"epoch": 1.0866666666666667, |
|
"grad_norm": 5.304556098752671e-05, |
|
"learning_rate": 5.116344781870281e-05, |
|
"loss": 0.0, |
|
"step": 163 |
|
}, |
|
{ |
|
"epoch": 1.0933333333333333, |
|
"grad_norm": 0.0002613039248160799, |
|
"learning_rate": 5.0581763290069865e-05, |
|
"loss": 0.0, |
|
"step": 164 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"grad_norm": 0.018039458004058425, |
|
"learning_rate": 5e-05, |
|
"loss": 0.0096, |
|
"step": 165 |
|
}, |
|
{ |
|
"epoch": 1.1066666666666667, |
|
"grad_norm": 0.00043289860895525913, |
|
"learning_rate": 4.941823670993016e-05, |
|
"loss": 0.0, |
|
"step": 166 |
|
}, |
|
{ |
|
"epoch": 1.1133333333333333, |
|
"grad_norm": 0.0004898606762930914, |
|
"learning_rate": 4.883655218129719e-05, |
|
"loss": 0.0001, |
|
"step": 167 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"grad_norm": 0.0007358296917840791, |
|
"learning_rate": 4.825502516487497e-05, |
|
"loss": 0.0, |
|
"step": 168 |
|
}, |
|
{ |
|
"epoch": 1.1266666666666667, |
|
"grad_norm": 0.0008375170388800147, |
|
"learning_rate": 4.767373439011267e-05, |
|
"loss": 0.0001, |
|
"step": 169 |
|
}, |
|
{ |
|
"epoch": 1.1333333333333333, |
|
"grad_norm": 2.5381907620208424e-05, |
|
"learning_rate": 4.709275855447621e-05, |
|
"loss": 0.0, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 1.1400000000000001, |
|
"grad_norm": 7.449191552536734e-05, |
|
"learning_rate": 4.6512176312793736e-05, |
|
"loss": 0.0, |
|
"step": 171 |
|
}, |
|
{ |
|
"epoch": 1.1466666666666667, |
|
"grad_norm": 0.0004729200174589034, |
|
"learning_rate": 4.593206626660709e-05, |
|
"loss": 0.0001, |
|
"step": 172 |
|
}, |
|
{ |
|
"epoch": 1.1533333333333333, |
|
"grad_norm": 0.0004275215620648688, |
|
"learning_rate": 4.535250695353039e-05, |
|
"loss": 0.0, |
|
"step": 173 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"grad_norm": 0.008606435537617849, |
|
"learning_rate": 4.477357683661734e-05, |
|
"loss": 0.0014, |
|
"step": 174 |
|
}, |
|
{ |
|
"epoch": 1.1666666666666667, |
|
"grad_norm": 0.00448184464882473, |
|
"learning_rate": 4.4195354293738484e-05, |
|
"loss": 0.0003, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 1.1733333333333333, |
|
"grad_norm": 0.00012898388950679788, |
|
"learning_rate": 4.361791760697027e-05, |
|
"loss": 0.0, |
|
"step": 176 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"grad_norm": 0.0020715428162343765, |
|
"learning_rate": 4.3041344951996746e-05, |
|
"loss": 0.0002, |
|
"step": 177 |
|
}, |
|
{ |
|
"epoch": 1.1866666666666668, |
|
"grad_norm": 9.100683835191362e-05, |
|
"learning_rate": 4.246571438752585e-05, |
|
"loss": 0.0, |
|
"step": 178 |
|
}, |
|
{ |
|
"epoch": 1.1933333333333334, |
|
"grad_norm": 0.0002309585607769376, |
|
"learning_rate": 4.1891103844721636e-05, |
|
"loss": 0.0, |
|
"step": 179 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"grad_norm": 0.00016192547244218514, |
|
"learning_rate": 4.131759111665349e-05, |
|
"loss": 0.0, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 1.2066666666666666, |
|
"grad_norm": 0.00010200465308116599, |
|
"learning_rate": 4.074525384776428e-05, |
|
"loss": 0.0, |
|
"step": 181 |
|
}, |
|
{ |
|
"epoch": 1.2133333333333334, |
|
"grad_norm": 0.0002399309808010363, |
|
"learning_rate": 4.017416952335849e-05, |
|
"loss": 0.0, |
|
"step": 182 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"grad_norm": 0.0001678856548136045, |
|
"learning_rate": 3.960441545911204e-05, |
|
"loss": 0.0, |
|
"step": 183 |
|
}, |
|
{ |
|
"epoch": 1.2266666666666666, |
|
"grad_norm": 3.6876041605695774e-05, |
|
"learning_rate": 3.903606879060483e-05, |
|
"loss": 0.0, |
|
"step": 184 |
|
}, |
|
{ |
|
"epoch": 1.2333333333333334, |
|
"grad_norm": 0.00015536953743836815, |
|
"learning_rate": 3.846920646287799e-05, |
|
"loss": 0.0, |
|
"step": 185 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"grad_norm": 0.000170930884967564, |
|
"learning_rate": 3.790390522001662e-05, |
|
"loss": 0.0, |
|
"step": 186 |
|
}, |
|
{ |
|
"epoch": 1.2466666666666666, |
|
"grad_norm": 5.746104734542588e-05, |
|
"learning_rate": 3.7340241594759916e-05, |
|
"loss": 0.0, |
|
"step": 187 |
|
}, |
|
{ |
|
"epoch": 1.2533333333333334, |
|
"grad_norm": 6.238303470080796e-05, |
|
"learning_rate": 3.67782918981399e-05, |
|
"loss": 0.0, |
|
"step": 188 |
|
}, |
|
{ |
|
"epoch": 1.26, |
|
"grad_norm": 0.0018915428235470257, |
|
"learning_rate": 3.6218132209150045e-05, |
|
"loss": 0.0003, |
|
"step": 189 |
|
}, |
|
{ |
|
"epoch": 1.2666666666666666, |
|
"grad_norm": 0.0003019724197093138, |
|
"learning_rate": 3.5659838364445505e-05, |
|
"loss": 0.0, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 1.2733333333333334, |
|
"grad_norm": 0.00023693658944929353, |
|
"learning_rate": 3.51034859480759e-05, |
|
"loss": 0.0, |
|
"step": 191 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"grad_norm": 0.000404942784760299, |
|
"learning_rate": 3.4549150281252636e-05, |
|
"loss": 0.0001, |
|
"step": 192 |
|
}, |
|
{ |
|
"epoch": 1.2866666666666666, |
|
"grad_norm": 0.00015547201343919418, |
|
"learning_rate": 3.399690641215142e-05, |
|
"loss": 0.0, |
|
"step": 193 |
|
}, |
|
{ |
|
"epoch": 1.2933333333333334, |
|
"grad_norm": 0.0018421328428138005, |
|
"learning_rate": 3.34468291057521e-05, |
|
"loss": 0.0001, |
|
"step": 194 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"grad_norm": 1.6323592960182904e-05, |
|
"learning_rate": 3.289899283371657e-05, |
|
"loss": 0.0, |
|
"step": 195 |
|
}, |
|
{ |
|
"epoch": 1.3066666666666666, |
|
"grad_norm": 4.977571410838519e-05, |
|
"learning_rate": 3.235347176430656e-05, |
|
"loss": 0.0, |
|
"step": 196 |
|
}, |
|
{ |
|
"epoch": 1.3133333333333335, |
|
"grad_norm": 0.00022155151634504317, |
|
"learning_rate": 3.1810339752342446e-05, |
|
"loss": 0.0, |
|
"step": 197 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"grad_norm": 0.0044919178257501, |
|
"learning_rate": 3.12696703292044e-05, |
|
"loss": 0.0005, |
|
"step": 198 |
|
}, |
|
{ |
|
"epoch": 1.3266666666666667, |
|
"grad_norm": 0.00022385873859801224, |
|
"learning_rate": 3.073153669287759e-05, |
|
"loss": 0.0, |
|
"step": 199 |
|
}, |
|
{ |
|
"epoch": 1.3333333333333333, |
|
"grad_norm": 9.680052188398853e-05, |
|
"learning_rate": 3.019601169804216e-05, |
|
"loss": 0.0, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 1.34, |
|
"grad_norm": 0.0001856279210794964, |
|
"learning_rate": 2.9663167846209998e-05, |
|
"loss": 0.0, |
|
"step": 201 |
|
}, |
|
{ |
|
"epoch": 1.3466666666666667, |
|
"grad_norm": 0.00025113538208500425, |
|
"learning_rate": 2.9133077275909108e-05, |
|
"loss": 0.0, |
|
"step": 202 |
|
}, |
|
{ |
|
"epoch": 1.3533333333333333, |
|
"grad_norm": 3.015637266243386e-05, |
|
"learning_rate": 2.86058117529173e-05, |
|
"loss": 0.0, |
|
"step": 203 |
|
}, |
|
{ |
|
"epoch": 1.3599999999999999, |
|
"grad_norm": 9.59994887782107e-05, |
|
"learning_rate": 2.8081442660546125e-05, |
|
"loss": 0.0, |
|
"step": 204 |
|
}, |
|
{ |
|
"epoch": 1.3666666666666667, |
|
"grad_norm": 0.02237704164182678, |
|
"learning_rate": 2.7560040989976892e-05, |
|
"loss": 0.0051, |
|
"step": 205 |
|
}, |
|
{ |
|
"epoch": 1.3733333333333333, |
|
"grad_norm": 0.0005252371405797351, |
|
"learning_rate": 2.7041677330649407e-05, |
|
"loss": 0.0001, |
|
"step": 206 |
|
}, |
|
{ |
|
"epoch": 1.38, |
|
"grad_norm": 2.8023151441449766e-05, |
|
"learning_rate": 2.6526421860705473e-05, |
|
"loss": 0.0, |
|
"step": 207 |
|
}, |
|
{ |
|
"epoch": 1.3866666666666667, |
|
"grad_norm": 0.00036932745070395617, |
|
"learning_rate": 2.6014344337487707e-05, |
|
"loss": 0.0001, |
|
"step": 208 |
|
}, |
|
{ |
|
"epoch": 1.3933333333333333, |
|
"grad_norm": 0.001042186789255765, |
|
"learning_rate": 2.5505514088095655e-05, |
|
"loss": 0.0001, |
|
"step": 209 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"grad_norm": 0.0008351525590904612, |
|
"learning_rate": 2.500000000000001e-05, |
|
"loss": 0.0, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 1.4066666666666667, |
|
"grad_norm": 7.989325212555359e-05, |
|
"learning_rate": 2.4497870511716235e-05, |
|
"loss": 0.0, |
|
"step": 211 |
|
}, |
|
{ |
|
"epoch": 1.4133333333333333, |
|
"grad_norm": 0.00018843518545315116, |
|
"learning_rate": 2.399919360353923e-05, |
|
"loss": 0.0, |
|
"step": 212 |
|
}, |
|
{ |
|
"epoch": 1.42, |
|
"grad_norm": 0.0002808122109130762, |
|
"learning_rate": 2.350403678833976e-05, |
|
"loss": 0.0, |
|
"step": 213 |
|
}, |
|
{ |
|
"epoch": 1.4266666666666667, |
|
"grad_norm": 0.0013823572357112885, |
|
"learning_rate": 2.3012467102424373e-05, |
|
"loss": 0.0001, |
|
"step": 214 |
|
}, |
|
{ |
|
"epoch": 1.4333333333333333, |
|
"grad_norm": 0.00040117287788930296, |
|
"learning_rate": 2.25245510964597e-05, |
|
"loss": 0.0001, |
|
"step": 215 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"grad_norm": 0.0005066949250585673, |
|
"learning_rate": 2.2040354826462668e-05, |
|
"loss": 0.0, |
|
"step": 216 |
|
}, |
|
{ |
|
"epoch": 1.4466666666666668, |
|
"grad_norm": 0.0006794365007939381, |
|
"learning_rate": 2.1559943844857422e-05, |
|
"loss": 0.0001, |
|
"step": 217 |
|
}, |
|
{ |
|
"epoch": 1.4533333333333334, |
|
"grad_norm": 0.0005835182405789572, |
|
"learning_rate": 2.1083383191600674e-05, |
|
"loss": 0.0, |
|
"step": 218 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"grad_norm": 0.0004531433429506335, |
|
"learning_rate": 2.061073738537635e-05, |
|
"loss": 0.0, |
|
"step": 219 |
|
}, |
|
{ |
|
"epoch": 1.4666666666666668, |
|
"grad_norm": 0.0001818665866966356, |
|
"learning_rate": 2.0142070414860704e-05, |
|
"loss": 0.0, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 1.4733333333333334, |
|
"grad_norm": 0.0002393848483627097, |
|
"learning_rate": 1.9677445730059346e-05, |
|
"loss": 0.0, |
|
"step": 221 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"grad_norm": 7.772647517861528e-05, |
|
"learning_rate": 1.9216926233717085e-05, |
|
"loss": 0.0, |
|
"step": 222 |
|
}, |
|
{ |
|
"epoch": 1.4866666666666668, |
|
"grad_norm": 0.00010298687795062234, |
|
"learning_rate": 1.8760574272802e-05, |
|
"loss": 0.0, |
|
"step": 223 |
|
}, |
|
{ |
|
"epoch": 1.4933333333333334, |
|
"grad_norm": 2.477899167519177e-05, |
|
"learning_rate": 1.8308451630064484e-05, |
|
"loss": 0.0, |
|
"step": 224 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"grad_norm": 0.00010035740845659, |
|
"learning_rate": 1.7860619515673033e-05, |
|
"loss": 0.0, |
|
"step": 225 |
|
}, |
|
{ |
|
"epoch": 1.5066666666666668, |
|
"grad_norm": 0.00023331053037073973, |
|
"learning_rate": 1.7417138558927244e-05, |
|
"loss": 0.0, |
|
"step": 226 |
|
}, |
|
{ |
|
"epoch": 1.5133333333333332, |
|
"grad_norm": 4.635767124388848e-05, |
|
"learning_rate": 1.6978068800049624e-05, |
|
"loss": 0.0, |
|
"step": 227 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"grad_norm": 0.00022803363316489697, |
|
"learning_rate": 1.6543469682057106e-05, |
|
"loss": 0.0, |
|
"step": 228 |
|
}, |
|
{ |
|
"epoch": 1.5266666666666666, |
|
"grad_norm": 7.060841893111752e-05, |
|
"learning_rate": 1.611340004271339e-05, |
|
"loss": 0.0, |
|
"step": 229 |
|
}, |
|
{ |
|
"epoch": 1.5333333333333332, |
|
"grad_norm": 5.233894613097733e-05, |
|
"learning_rate": 1.5687918106563326e-05, |
|
"loss": 0.0, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 1.54, |
|
"grad_norm": 2.3833900869508362e-05, |
|
"learning_rate": 1.526708147705013e-05, |
|
"loss": 0.0, |
|
"step": 231 |
|
}, |
|
{ |
|
"epoch": 1.5466666666666666, |
|
"grad_norm": 1.8778568483465247e-05, |
|
"learning_rate": 1.4850947128716913e-05, |
|
"loss": 0.0, |
|
"step": 232 |
|
}, |
|
{ |
|
"epoch": 1.5533333333333332, |
|
"grad_norm": 0.0006188101454459097, |
|
"learning_rate": 1.4439571399493146e-05, |
|
"loss": 0.0, |
|
"step": 233 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"grad_norm": 0.00047569624296686647, |
|
"learning_rate": 1.4033009983067452e-05, |
|
"loss": 0.0, |
|
"step": 234 |
|
}, |
|
{ |
|
"epoch": 1.5666666666666667, |
|
"grad_norm": 0.00017014941012572803, |
|
"learning_rate": 1.3631317921347563e-05, |
|
"loss": 0.0, |
|
"step": 235 |
|
}, |
|
{ |
|
"epoch": 1.5733333333333333, |
|
"grad_norm": 0.00013465959339334976, |
|
"learning_rate": 1.3234549597008571e-05, |
|
"loss": 0.0, |
|
"step": 236 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"grad_norm": 3.0572129312719554e-05, |
|
"learning_rate": 1.2842758726130283e-05, |
|
"loss": 0.0, |
|
"step": 237 |
|
}, |
|
{ |
|
"epoch": 1.5866666666666667, |
|
"grad_norm": 0.0013776216420996292, |
|
"learning_rate": 1.245599835092504e-05, |
|
"loss": 0.0001, |
|
"step": 238 |
|
}, |
|
{ |
|
"epoch": 1.5933333333333333, |
|
"grad_norm": 8.3129848327228e-05, |
|
"learning_rate": 1.2074320832556556e-05, |
|
"loss": 0.0, |
|
"step": 239 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"grad_norm": 2.954498333244474e-05, |
|
"learning_rate": 1.1697777844051105e-05, |
|
"loss": 0.0, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 1.6066666666666667, |
|
"grad_norm": 0.0001319059355615371, |
|
"learning_rate": 1.132642036330181e-05, |
|
"loss": 0.0, |
|
"step": 241 |
|
}, |
|
{ |
|
"epoch": 1.6133333333333333, |
|
"grad_norm": 7.600028639768843e-05, |
|
"learning_rate": 1.096029866616704e-05, |
|
"loss": 0.0, |
|
"step": 242 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"grad_norm": 0.0006011794518034682, |
|
"learning_rate": 1.0599462319663905e-05, |
|
"loss": 0.0001, |
|
"step": 243 |
|
}, |
|
{ |
|
"epoch": 1.6266666666666667, |
|
"grad_norm": 0.0009165757210667557, |
|
"learning_rate": 1.0243960175257606e-05, |
|
"loss": 0.0002, |
|
"step": 244 |
|
}, |
|
{ |
|
"epoch": 1.6333333333333333, |
|
"grad_norm": 5.552311420707341e-05, |
|
"learning_rate": 9.893840362247809e-06, |
|
"loss": 0.0, |
|
"step": 245 |
|
}, |
|
{ |
|
"epoch": 1.6400000000000001, |
|
"grad_norm": 8.034254596675944e-05, |
|
"learning_rate": 9.549150281252633e-06, |
|
"loss": 0.0, |
|
"step": 246 |
|
}, |
|
{ |
|
"epoch": 1.6466666666666665, |
|
"grad_norm": 8.076328463277652e-05, |
|
"learning_rate": 9.209936597791407e-06, |
|
"loss": 0.0, |
|
"step": 247 |
|
}, |
|
{ |
|
"epoch": 1.6533333333333333, |
|
"grad_norm": 7.347687787078431e-05, |
|
"learning_rate": 8.876245235966885e-06, |
|
"loss": 0.0, |
|
"step": 248 |
|
}, |
|
{ |
|
"epoch": 1.6600000000000001, |
|
"grad_norm": 3.6233796195591306e-05, |
|
"learning_rate": 8.548121372247918e-06, |
|
"loss": 0.0, |
|
"step": 249 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 6.740867790991137e-05, |
|
"learning_rate": 8.225609429353187e-06, |
|
"loss": 0.0, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 1.6733333333333333, |
|
"grad_norm": 0.0008428647375358587, |
|
"learning_rate": 7.908753070237123e-06, |
|
"loss": 0.0001, |
|
"step": 251 |
|
}, |
|
{ |
|
"epoch": 1.6800000000000002, |
|
"grad_norm": 0.0006715451584370774, |
|
"learning_rate": 7.597595192178702e-06, |
|
"loss": 0.0002, |
|
"step": 252 |
|
}, |
|
{ |
|
"epoch": 1.6866666666666665, |
|
"grad_norm": 6.451454531891306e-05, |
|
"learning_rate": 7.292177920973725e-06, |
|
"loss": 0.0, |
|
"step": 253 |
|
}, |
|
{ |
|
"epoch": 1.6933333333333334, |
|
"grad_norm": 2.8653302795346195e-05, |
|
"learning_rate": 6.992542605231739e-06, |
|
"loss": 0.0, |
|
"step": 254 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"grad_norm": 0.00029067803092148754, |
|
"learning_rate": 6.698729810778065e-06, |
|
"loss": 0.0, |
|
"step": 255 |
|
}, |
|
{ |
|
"epoch": 1.7066666666666666, |
|
"grad_norm": 0.00016726451305746476, |
|
"learning_rate": 6.410779315161886e-06, |
|
"loss": 0.0, |
|
"step": 256 |
|
}, |
|
{ |
|
"epoch": 1.7133333333333334, |
|
"grad_norm": 9.740337136008125e-05, |
|
"learning_rate": 6.128730102270897e-06, |
|
"loss": 0.0, |
|
"step": 257 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"grad_norm": 0.00017421368194698005, |
|
"learning_rate": 5.852620357053651e-06, |
|
"loss": 0.0, |
|
"step": 258 |
|
}, |
|
{ |
|
"epoch": 1.7266666666666666, |
|
"grad_norm": 1.6622980794746622e-05, |
|
"learning_rate": 5.582487460349805e-06, |
|
"loss": 0.0, |
|
"step": 259 |
|
}, |
|
{ |
|
"epoch": 1.7333333333333334, |
|
"grad_norm": 0.00019880726753167415, |
|
"learning_rate": 5.318367983829392e-06, |
|
"loss": 0.0, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 1.74, |
|
"grad_norm": 9.102977635836252e-05, |
|
"learning_rate": 5.060297685041659e-06, |
|
"loss": 0.0, |
|
"step": 261 |
|
}, |
|
{ |
|
"epoch": 1.7466666666666666, |
|
"grad_norm": 0.00024436686926352903, |
|
"learning_rate": 4.8083115025739756e-06, |
|
"loss": 0.0, |
|
"step": 262 |
|
}, |
|
{ |
|
"epoch": 1.7533333333333334, |
|
"grad_norm": 0.00012988256068307926, |
|
"learning_rate": 4.562443551321788e-06, |
|
"loss": 0.0, |
|
"step": 263 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"grad_norm": 0.00022487764631819878, |
|
"learning_rate": 4.322727117869951e-06, |
|
"loss": 0.0, |
|
"step": 264 |
|
}, |
|
{ |
|
"epoch": 1.7666666666666666, |
|
"grad_norm": 0.000777856880113181, |
|
"learning_rate": 4.089194655986306e-06, |
|
"loss": 0.0002, |
|
"step": 265 |
|
}, |
|
{ |
|
"epoch": 1.7733333333333334, |
|
"grad_norm": 0.00030258151068556963, |
|
"learning_rate": 3.861877782227885e-06, |
|
"loss": 0.0, |
|
"step": 266 |
|
}, |
|
{ |
|
"epoch": 1.78, |
|
"grad_norm": 4.8278421726801864e-05, |
|
"learning_rate": 3.6408072716606346e-06, |
|
"loss": 0.0, |
|
"step": 267 |
|
}, |
|
{ |
|
"epoch": 1.7866666666666666, |
|
"grad_norm": 5.2954408200524565e-05, |
|
"learning_rate": 3.426013053692878e-06, |
|
"loss": 0.0, |
|
"step": 268 |
|
}, |
|
{ |
|
"epoch": 1.7933333333333334, |
|
"grad_norm": 2.3618866062090394e-05, |
|
"learning_rate": 3.2175242080234313e-06, |
|
"loss": 0.0, |
|
"step": 269 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"grad_norm": 0.0018385440791282817, |
|
"learning_rate": 3.0153689607045845e-06, |
|
"loss": 0.0001, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 1.8066666666666666, |
|
"grad_norm": 0.00036386399446546985, |
|
"learning_rate": 2.8195746803208244e-06, |
|
"loss": 0.0, |
|
"step": 271 |
|
}, |
|
{ |
|
"epoch": 1.8133333333333335, |
|
"grad_norm": 7.189078173798145e-05, |
|
"learning_rate": 2.63016787428354e-06, |
|
"loss": 0.0, |
|
"step": 272 |
|
}, |
|
{ |
|
"epoch": 1.8199999999999998, |
|
"grad_norm": 0.00015097698666582097, |
|
"learning_rate": 2.4471741852423237e-06, |
|
"loss": 0.0, |
|
"step": 273 |
|
}, |
|
{ |
|
"epoch": 1.8266666666666667, |
|
"grad_norm": 1.347964561125383e-05, |
|
"learning_rate": 2.2706183876134045e-06, |
|
"loss": 0.0, |
|
"step": 274 |
|
}, |
|
{ |
|
"epoch": 1.8333333333333335, |
|
"grad_norm": 0.0006483428255253867, |
|
"learning_rate": 2.100524384225555e-06, |
|
"loss": 0.0, |
|
"step": 275 |
|
}, |
|
{ |
|
"epoch": 1.8399999999999999, |
|
"grad_norm": 0.00043536622248107584, |
|
"learning_rate": 1.9369152030840556e-06, |
|
"loss": 0.0, |
|
"step": 276 |
|
}, |
|
{ |
|
"epoch": 1.8466666666666667, |
|
"grad_norm": 1.1257068715065971e-05, |
|
"learning_rate": 1.7798129942530551e-06, |
|
"loss": 0.0, |
|
"step": 277 |
|
}, |
|
{ |
|
"epoch": 1.8533333333333335, |
|
"grad_norm": 0.0005173208070479985, |
|
"learning_rate": 1.6292390268568104e-06, |
|
"loss": 0.0001, |
|
"step": 278 |
|
}, |
|
{ |
|
"epoch": 1.8599999999999999, |
|
"grad_norm": 0.0006293810673512456, |
|
"learning_rate": 1.4852136862001764e-06, |
|
"loss": 0.0001, |
|
"step": 279 |
|
}, |
|
{ |
|
"epoch": 1.8666666666666667, |
|
"grad_norm": 0.00032499823174485926, |
|
"learning_rate": 1.3477564710088098e-06, |
|
"loss": 0.0, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 1.8733333333333333, |
|
"grad_norm": 4.6253586914162025e-05, |
|
"learning_rate": 1.2168859907892904e-06, |
|
"loss": 0.0, |
|
"step": 281 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"grad_norm": 0.0007190981065764121, |
|
"learning_rate": 1.0926199633097157e-06, |
|
"loss": 0.0001, |
|
"step": 282 |
|
}, |
|
{ |
|
"epoch": 1.8866666666666667, |
|
"grad_norm": 3.99422610222868e-05, |
|
"learning_rate": 9.749752122010346e-07, |
|
"loss": 0.0, |
|
"step": 283 |
|
}, |
|
{ |
|
"epoch": 1.8933333333333333, |
|
"grad_norm": 0.00040952886341482405, |
|
"learning_rate": 8.639676646793382e-07, |
|
"loss": 0.0001, |
|
"step": 284 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"grad_norm": 0.0001082129190404226, |
|
"learning_rate": 7.596123493895991e-07, |
|
"loss": 0.0, |
|
"step": 285 |
|
}, |
|
{ |
|
"epoch": 1.9066666666666667, |
|
"grad_norm": 0.000279318266614012, |
|
"learning_rate": 6.61923394371039e-07, |
|
"loss": 0.0, |
|
"step": 286 |
|
}, |
|
{ |
|
"epoch": 1.9133333333333333, |
|
"grad_norm": 0.00016792620759365734, |
|
"learning_rate": 5.7091402514442e-07, |
|
"loss": 0.0, |
|
"step": 287 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"grad_norm": 3.0643395000162574e-05, |
|
"learning_rate": 4.865965629214819e-07, |
|
"loss": 0.0, |
|
"step": 288 |
|
}, |
|
{ |
|
"epoch": 1.9266666666666667, |
|
"grad_norm": 3.771679791707975e-05, |
|
"learning_rate": 4.089824229369155e-07, |
|
"loss": 0.0, |
|
"step": 289 |
|
}, |
|
{ |
|
"epoch": 1.9333333333333333, |
|
"grad_norm": 0.0002569592314129257, |
|
"learning_rate": 3.380821129028489e-07, |
|
"loss": 0.0, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 1.94, |
|
"grad_norm": 0.00010516822673580165, |
|
"learning_rate": 2.7390523158633554e-07, |
|
"loss": 0.0, |
|
"step": 291 |
|
}, |
|
{ |
|
"epoch": 1.9466666666666668, |
|
"grad_norm": 9.82628812164625e-05, |
|
"learning_rate": 2.1646046750978254e-07, |
|
"loss": 0.0, |
|
"step": 292 |
|
}, |
|
{ |
|
"epoch": 1.9533333333333334, |
|
"grad_norm": 8.761245982478377e-05, |
|
"learning_rate": 1.657555977746972e-07, |
|
"loss": 0.0, |
|
"step": 293 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"grad_norm": 0.002431478108664591, |
|
"learning_rate": 1.2179748700879012e-07, |
|
"loss": 0.0003, |
|
"step": 294 |
|
}, |
|
{ |
|
"epoch": 1.9666666666666668, |
|
"grad_norm": 0.00012212111755105902, |
|
"learning_rate": 8.459208643659122e-08, |
|
"loss": 0.0, |
|
"step": 295 |
|
}, |
|
{ |
|
"epoch": 1.9733333333333334, |
|
"grad_norm": 0.0001318651455436557, |
|
"learning_rate": 5.4144433073771707e-08, |
|
"loss": 0.0, |
|
"step": 296 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"grad_norm": 6.6545236830928e-05, |
|
"learning_rate": 3.04586490452119e-08, |
|
"loss": 0.0, |
|
"step": 297 |
|
}, |
|
{ |
|
"epoch": 1.9866666666666668, |
|
"grad_norm": 0.00011606544260012835, |
|
"learning_rate": 1.3537941026914303e-08, |
|
"loss": 0.0, |
|
"step": 298 |
|
}, |
|
{ |
|
"epoch": 1.9933333333333332, |
|
"grad_norm": 0.001479842805226472, |
|
"learning_rate": 3.384599811889766e-09, |
|
"loss": 0.0002, |
|
"step": 299 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 0.0069044591292827286, |
|
"learning_rate": 0.0, |
|
"loss": 0.0008, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_loss": 0.03511442244052887, |
|
"eval_runtime": 1.454, |
|
"eval_samples_per_second": 0.688, |
|
"eval_steps_per_second": 0.688, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"step": 300, |
|
"total_flos": 13508085596160.0, |
|
"train_loss": 0.004211519595359808, |
|
"train_runtime": 884.371, |
|
"train_samples_per_second": 0.678, |
|
"train_steps_per_second": 0.339 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 300, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 2, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 13508085596160.0, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|