|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 9.338313767342584, |
|
"global_step": 70000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 3.602, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 2.4085, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 3e-06, |
|
"loss": 2.2375, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 2.1425, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 5e-06, |
|
"loss": 2.0751, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 6e-06, |
|
"loss": 2.0335, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 7e-06, |
|
"loss": 2.0151, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 1.9787, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 9e-06, |
|
"loss": 1.969, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1e-05, |
|
"loss": 1.9527, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 1.9268, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 1.2e-05, |
|
"loss": 1.9303, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 1.9121, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 1.4e-05, |
|
"loss": 1.9003, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 1.5000000000000002e-05, |
|
"loss": 1.8787, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 1.6000000000000003e-05, |
|
"loss": 1.8614, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 1.7e-05, |
|
"loss": 1.8591, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 1.8e-05, |
|
"loss": 1.8593, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 1.9e-05, |
|
"loss": 1.8472, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 2e-05, |
|
"loss": 1.8438, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 1.9833333333333335e-05, |
|
"loss": 1.8399, |
|
"step": 10500 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 1.9666666666666666e-05, |
|
"loss": 1.8335, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 1.95e-05, |
|
"loss": 1.8303, |
|
"step": 11500 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 1.9333333333333333e-05, |
|
"loss": 1.8222, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 1.916666666666667e-05, |
|
"loss": 1.8198, |
|
"step": 12500 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 1.9e-05, |
|
"loss": 1.8256, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 1.8833333333333335e-05, |
|
"loss": 1.8101, |
|
"step": 13500 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 1.866666666666667e-05, |
|
"loss": 1.8103, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 1.8500000000000002e-05, |
|
"loss": 1.8023, |
|
"step": 14500 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 1.8333333333333333e-05, |
|
"loss": 1.8053, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 1.8166666666666667e-05, |
|
"loss": 1.7554, |
|
"step": 15500 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 1.8e-05, |
|
"loss": 1.7494, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 1.7833333333333334e-05, |
|
"loss": 1.7611, |
|
"step": 16500 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 1.7666666666666668e-05, |
|
"loss": 1.7422, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 1.7500000000000002e-05, |
|
"loss": 1.7449, |
|
"step": 17500 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 1.7333333333333336e-05, |
|
"loss": 1.7377, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 1.7166666666666666e-05, |
|
"loss": 1.7379, |
|
"step": 18500 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 1.7e-05, |
|
"loss": 1.7374, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 1.6833333333333334e-05, |
|
"loss": 1.7343, |
|
"step": 19500 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 1.7417, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 1.65e-05, |
|
"loss": 1.7388, |
|
"step": 20500 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 1.6333333333333335e-05, |
|
"loss": 1.7349, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 2.87, |
|
"learning_rate": 1.616666666666667e-05, |
|
"loss": 1.7353, |
|
"step": 21500 |
|
}, |
|
{ |
|
"epoch": 2.93, |
|
"learning_rate": 1.6000000000000003e-05, |
|
"loss": 1.7196, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"learning_rate": 1.5833333333333333e-05, |
|
"loss": 1.7238, |
|
"step": 22500 |
|
}, |
|
{ |
|
"epoch": 3.07, |
|
"learning_rate": 1.5666666666666667e-05, |
|
"loss": 1.6832, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 3.14, |
|
"learning_rate": 1.55e-05, |
|
"loss": 1.6794, |
|
"step": 23500 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 1.5333333333333334e-05, |
|
"loss": 1.6732, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 3.27, |
|
"learning_rate": 1.5166666666666667e-05, |
|
"loss": 1.6883, |
|
"step": 24500 |
|
}, |
|
{ |
|
"epoch": 3.34, |
|
"learning_rate": 1.5000000000000002e-05, |
|
"loss": 1.6802, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 3.4, |
|
"learning_rate": 1.4833333333333336e-05, |
|
"loss": 1.6817, |
|
"step": 25500 |
|
}, |
|
{ |
|
"epoch": 3.47, |
|
"learning_rate": 1.4666666666666666e-05, |
|
"loss": 1.6961, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 3.54, |
|
"learning_rate": 1.45e-05, |
|
"loss": 1.6871, |
|
"step": 26500 |
|
}, |
|
{ |
|
"epoch": 3.6, |
|
"learning_rate": 1.4333333333333334e-05, |
|
"loss": 1.69, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 3.67, |
|
"learning_rate": 1.416666666666667e-05, |
|
"loss": 1.6912, |
|
"step": 27500 |
|
}, |
|
{ |
|
"epoch": 3.74, |
|
"learning_rate": 1.4e-05, |
|
"loss": 1.6815, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 3.8, |
|
"learning_rate": 1.3833333333333334e-05, |
|
"loss": 1.6775, |
|
"step": 28500 |
|
}, |
|
{ |
|
"epoch": 3.87, |
|
"learning_rate": 1.3666666666666667e-05, |
|
"loss": 1.6736, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 3.94, |
|
"learning_rate": 1.3500000000000001e-05, |
|
"loss": 1.6827, |
|
"step": 29500 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 1.3333333333333333e-05, |
|
"loss": 1.6698, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 4.07, |
|
"learning_rate": 1.3166666666666667e-05, |
|
"loss": 1.6342, |
|
"step": 30500 |
|
}, |
|
{ |
|
"epoch": 4.14, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 1.6367, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 4.2, |
|
"learning_rate": 1.2833333333333335e-05, |
|
"loss": 1.6423, |
|
"step": 31500 |
|
}, |
|
{ |
|
"epoch": 4.27, |
|
"learning_rate": 1.2666666666666667e-05, |
|
"loss": 1.6381, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 4.34, |
|
"learning_rate": 1.25e-05, |
|
"loss": 1.6493, |
|
"step": 32500 |
|
}, |
|
{ |
|
"epoch": 4.4, |
|
"learning_rate": 1.2333333333333334e-05, |
|
"loss": 1.658, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 4.47, |
|
"learning_rate": 1.2166666666666667e-05, |
|
"loss": 1.6583, |
|
"step": 33500 |
|
}, |
|
{ |
|
"epoch": 4.54, |
|
"learning_rate": 1.2e-05, |
|
"loss": 1.6511, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 4.6, |
|
"learning_rate": 1.1833333333333334e-05, |
|
"loss": 1.6372, |
|
"step": 34500 |
|
}, |
|
{ |
|
"epoch": 4.67, |
|
"learning_rate": 1.1666666666666668e-05, |
|
"loss": 1.6346, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 4.74, |
|
"learning_rate": 1.15e-05, |
|
"loss": 1.6378, |
|
"step": 35500 |
|
}, |
|
{ |
|
"epoch": 4.8, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 1.6472, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 4.87, |
|
"learning_rate": 1.1166666666666668e-05, |
|
"loss": 1.6411, |
|
"step": 36500 |
|
}, |
|
{ |
|
"epoch": 4.94, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 1.6541, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"learning_rate": 1.0833333333333334e-05, |
|
"loss": 1.6456, |
|
"step": 37500 |
|
}, |
|
{ |
|
"epoch": 5.07, |
|
"learning_rate": 1.0666666666666667e-05, |
|
"loss": 1.6074, |
|
"step": 38000 |
|
}, |
|
{ |
|
"epoch": 5.14, |
|
"learning_rate": 1.0500000000000001e-05, |
|
"loss": 1.6096, |
|
"step": 38500 |
|
}, |
|
{ |
|
"epoch": 5.2, |
|
"learning_rate": 1.0333333333333335e-05, |
|
"loss": 1.6095, |
|
"step": 39000 |
|
}, |
|
{ |
|
"epoch": 5.27, |
|
"learning_rate": 1.0166666666666667e-05, |
|
"loss": 1.613, |
|
"step": 39500 |
|
}, |
|
{ |
|
"epoch": 5.34, |
|
"learning_rate": 1e-05, |
|
"loss": 1.6147, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 5.4, |
|
"learning_rate": 9.833333333333333e-06, |
|
"loss": 1.6197, |
|
"step": 40500 |
|
}, |
|
{ |
|
"epoch": 5.47, |
|
"learning_rate": 9.666666666666667e-06, |
|
"loss": 1.6239, |
|
"step": 41000 |
|
}, |
|
{ |
|
"epoch": 5.54, |
|
"learning_rate": 9.5e-06, |
|
"loss": 1.6106, |
|
"step": 41500 |
|
}, |
|
{ |
|
"epoch": 5.6, |
|
"learning_rate": 9.333333333333334e-06, |
|
"loss": 1.6283, |
|
"step": 42000 |
|
}, |
|
{ |
|
"epoch": 5.67, |
|
"learning_rate": 9.166666666666666e-06, |
|
"loss": 1.6238, |
|
"step": 42500 |
|
}, |
|
{ |
|
"epoch": 5.74, |
|
"learning_rate": 9e-06, |
|
"loss": 1.6203, |
|
"step": 43000 |
|
}, |
|
{ |
|
"epoch": 5.8, |
|
"learning_rate": 8.833333333333334e-06, |
|
"loss": 1.6168, |
|
"step": 43500 |
|
}, |
|
{ |
|
"epoch": 5.87, |
|
"learning_rate": 8.666666666666668e-06, |
|
"loss": 1.616, |
|
"step": 44000 |
|
}, |
|
{ |
|
"epoch": 5.94, |
|
"learning_rate": 8.5e-06, |
|
"loss": 1.6147, |
|
"step": 44500 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 1.613, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 6.07, |
|
"learning_rate": 8.166666666666668e-06, |
|
"loss": 1.5841, |
|
"step": 45500 |
|
}, |
|
{ |
|
"epoch": 6.14, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 1.5944, |
|
"step": 46000 |
|
}, |
|
{ |
|
"epoch": 6.2, |
|
"learning_rate": 7.833333333333333e-06, |
|
"loss": 1.5869, |
|
"step": 46500 |
|
}, |
|
{ |
|
"epoch": 6.27, |
|
"learning_rate": 7.666666666666667e-06, |
|
"loss": 1.6011, |
|
"step": 47000 |
|
}, |
|
{ |
|
"epoch": 6.34, |
|
"learning_rate": 7.500000000000001e-06, |
|
"loss": 1.5883, |
|
"step": 47500 |
|
}, |
|
{ |
|
"epoch": 6.4, |
|
"learning_rate": 7.333333333333333e-06, |
|
"loss": 1.5938, |
|
"step": 48000 |
|
}, |
|
{ |
|
"epoch": 6.47, |
|
"learning_rate": 7.166666666666667e-06, |
|
"loss": 1.6022, |
|
"step": 48500 |
|
}, |
|
{ |
|
"epoch": 6.54, |
|
"learning_rate": 7e-06, |
|
"loss": 1.6003, |
|
"step": 49000 |
|
}, |
|
{ |
|
"epoch": 6.6, |
|
"learning_rate": 6.833333333333334e-06, |
|
"loss": 1.5905, |
|
"step": 49500 |
|
}, |
|
{ |
|
"epoch": 6.67, |
|
"learning_rate": 6.666666666666667e-06, |
|
"loss": 1.5888, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 6.74, |
|
"learning_rate": 6.5000000000000004e-06, |
|
"loss": 1.5845, |
|
"step": 50500 |
|
}, |
|
{ |
|
"epoch": 6.8, |
|
"learning_rate": 6.333333333333333e-06, |
|
"loss": 1.5962, |
|
"step": 51000 |
|
}, |
|
{ |
|
"epoch": 6.87, |
|
"learning_rate": 6.166666666666667e-06, |
|
"loss": 1.6034, |
|
"step": 51500 |
|
}, |
|
{ |
|
"epoch": 6.94, |
|
"learning_rate": 6e-06, |
|
"loss": 1.5877, |
|
"step": 52000 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"learning_rate": 5.833333333333334e-06, |
|
"loss": 1.6018, |
|
"step": 52500 |
|
}, |
|
{ |
|
"epoch": 7.07, |
|
"learning_rate": 5.666666666666667e-06, |
|
"loss": 1.574, |
|
"step": 53000 |
|
}, |
|
{ |
|
"epoch": 7.14, |
|
"learning_rate": 5.500000000000001e-06, |
|
"loss": 1.5817, |
|
"step": 53500 |
|
}, |
|
{ |
|
"epoch": 7.2, |
|
"learning_rate": 5.333333333333334e-06, |
|
"loss": 1.5845, |
|
"step": 54000 |
|
}, |
|
{ |
|
"epoch": 7.27, |
|
"learning_rate": 5.1666666666666675e-06, |
|
"loss": 1.5737, |
|
"step": 54500 |
|
}, |
|
{ |
|
"epoch": 7.34, |
|
"learning_rate": 5e-06, |
|
"loss": 1.5807, |
|
"step": 55000 |
|
}, |
|
{ |
|
"epoch": 7.4, |
|
"learning_rate": 4.833333333333333e-06, |
|
"loss": 1.5752, |
|
"step": 55500 |
|
}, |
|
{ |
|
"epoch": 7.47, |
|
"learning_rate": 4.666666666666667e-06, |
|
"loss": 1.5724, |
|
"step": 56000 |
|
}, |
|
{ |
|
"epoch": 7.54, |
|
"learning_rate": 4.5e-06, |
|
"loss": 1.5793, |
|
"step": 56500 |
|
}, |
|
{ |
|
"epoch": 7.6, |
|
"learning_rate": 4.333333333333334e-06, |
|
"loss": 1.5843, |
|
"step": 57000 |
|
}, |
|
{ |
|
"epoch": 7.67, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 1.582, |
|
"step": 57500 |
|
}, |
|
{ |
|
"epoch": 7.74, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 1.5727, |
|
"step": 58000 |
|
}, |
|
{ |
|
"epoch": 7.8, |
|
"learning_rate": 3.833333333333334e-06, |
|
"loss": 1.5717, |
|
"step": 58500 |
|
}, |
|
{ |
|
"epoch": 7.87, |
|
"learning_rate": 3.6666666666666666e-06, |
|
"loss": 1.5656, |
|
"step": 59000 |
|
}, |
|
{ |
|
"epoch": 7.94, |
|
"learning_rate": 3.5e-06, |
|
"loss": 1.5735, |
|
"step": 59500 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 1.5698, |
|
"step": 60000 |
|
}, |
|
{ |
|
"epoch": 8.07, |
|
"learning_rate": 3.1666666666666667e-06, |
|
"loss": 1.556, |
|
"step": 60500 |
|
}, |
|
{ |
|
"epoch": 8.14, |
|
"learning_rate": 3e-06, |
|
"loss": 1.5567, |
|
"step": 61000 |
|
}, |
|
{ |
|
"epoch": 8.2, |
|
"learning_rate": 2.8333333333333335e-06, |
|
"loss": 1.5698, |
|
"step": 61500 |
|
}, |
|
{ |
|
"epoch": 8.27, |
|
"learning_rate": 2.666666666666667e-06, |
|
"loss": 1.5672, |
|
"step": 62000 |
|
}, |
|
{ |
|
"epoch": 8.34, |
|
"learning_rate": 2.5e-06, |
|
"loss": 1.5641, |
|
"step": 62500 |
|
}, |
|
{ |
|
"epoch": 8.4, |
|
"learning_rate": 2.3333333333333336e-06, |
|
"loss": 1.5618, |
|
"step": 63000 |
|
}, |
|
{ |
|
"epoch": 8.47, |
|
"learning_rate": 2.166666666666667e-06, |
|
"loss": 1.5701, |
|
"step": 63500 |
|
}, |
|
{ |
|
"epoch": 8.54, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 1.5646, |
|
"step": 64000 |
|
}, |
|
{ |
|
"epoch": 8.6, |
|
"learning_rate": 1.8333333333333333e-06, |
|
"loss": 1.5579, |
|
"step": 64500 |
|
}, |
|
{ |
|
"epoch": 8.67, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 1.5532, |
|
"step": 65000 |
|
}, |
|
{ |
|
"epoch": 8.74, |
|
"learning_rate": 1.5e-06, |
|
"loss": 1.5693, |
|
"step": 65500 |
|
}, |
|
{ |
|
"epoch": 8.8, |
|
"learning_rate": 1.3333333333333334e-06, |
|
"loss": 1.5589, |
|
"step": 66000 |
|
}, |
|
{ |
|
"epoch": 8.87, |
|
"learning_rate": 1.1666666666666668e-06, |
|
"loss": 1.5637, |
|
"step": 66500 |
|
}, |
|
{ |
|
"epoch": 8.94, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 1.5725, |
|
"step": 67000 |
|
}, |
|
{ |
|
"epoch": 9.0, |
|
"learning_rate": 8.333333333333333e-07, |
|
"loss": 1.5616, |
|
"step": 67500 |
|
}, |
|
{ |
|
"epoch": 9.07, |
|
"learning_rate": 6.666666666666667e-07, |
|
"loss": 1.5466, |
|
"step": 68000 |
|
}, |
|
{ |
|
"epoch": 9.14, |
|
"learning_rate": 5.000000000000001e-07, |
|
"loss": 1.5529, |
|
"step": 68500 |
|
}, |
|
{ |
|
"epoch": 9.2, |
|
"learning_rate": 3.3333333333333335e-07, |
|
"loss": 1.5655, |
|
"step": 69000 |
|
}, |
|
{ |
|
"epoch": 9.27, |
|
"learning_rate": 1.6666666666666668e-07, |
|
"loss": 1.5664, |
|
"step": 69500 |
|
}, |
|
{ |
|
"epoch": 9.34, |
|
"learning_rate": 0.0, |
|
"loss": 1.5561, |
|
"step": 70000 |
|
} |
|
], |
|
"max_steps": 70000, |
|
"num_train_epochs": 10, |
|
"total_flos": 6.828389816913101e+17, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|