ireneli1024's picture
Upload 13 files
b6e89bd
raw
history blame
16.9 kB
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 9.338313767342584,
"global_step": 70000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.07,
"learning_rate": 1.0000000000000002e-06,
"loss": 3.602,
"step": 500
},
{
"epoch": 0.13,
"learning_rate": 2.0000000000000003e-06,
"loss": 2.4085,
"step": 1000
},
{
"epoch": 0.2,
"learning_rate": 3e-06,
"loss": 2.2375,
"step": 1500
},
{
"epoch": 0.27,
"learning_rate": 4.000000000000001e-06,
"loss": 2.1425,
"step": 2000
},
{
"epoch": 0.33,
"learning_rate": 5e-06,
"loss": 2.0751,
"step": 2500
},
{
"epoch": 0.4,
"learning_rate": 6e-06,
"loss": 2.0335,
"step": 3000
},
{
"epoch": 0.47,
"learning_rate": 7e-06,
"loss": 2.0151,
"step": 3500
},
{
"epoch": 0.53,
"learning_rate": 8.000000000000001e-06,
"loss": 1.9787,
"step": 4000
},
{
"epoch": 0.6,
"learning_rate": 9e-06,
"loss": 1.969,
"step": 4500
},
{
"epoch": 0.67,
"learning_rate": 1e-05,
"loss": 1.9527,
"step": 5000
},
{
"epoch": 0.73,
"learning_rate": 1.1000000000000001e-05,
"loss": 1.9268,
"step": 5500
},
{
"epoch": 0.8,
"learning_rate": 1.2e-05,
"loss": 1.9303,
"step": 6000
},
{
"epoch": 0.87,
"learning_rate": 1.3000000000000001e-05,
"loss": 1.9121,
"step": 6500
},
{
"epoch": 0.93,
"learning_rate": 1.4e-05,
"loss": 1.9003,
"step": 7000
},
{
"epoch": 1.0,
"learning_rate": 1.5000000000000002e-05,
"loss": 1.8787,
"step": 7500
},
{
"epoch": 1.07,
"learning_rate": 1.6000000000000003e-05,
"loss": 1.8614,
"step": 8000
},
{
"epoch": 1.13,
"learning_rate": 1.7e-05,
"loss": 1.8591,
"step": 8500
},
{
"epoch": 1.2,
"learning_rate": 1.8e-05,
"loss": 1.8593,
"step": 9000
},
{
"epoch": 1.27,
"learning_rate": 1.9e-05,
"loss": 1.8472,
"step": 9500
},
{
"epoch": 1.33,
"learning_rate": 2e-05,
"loss": 1.8438,
"step": 10000
},
{
"epoch": 1.4,
"learning_rate": 1.9833333333333335e-05,
"loss": 1.8399,
"step": 10500
},
{
"epoch": 1.47,
"learning_rate": 1.9666666666666666e-05,
"loss": 1.8335,
"step": 11000
},
{
"epoch": 1.53,
"learning_rate": 1.95e-05,
"loss": 1.8303,
"step": 11500
},
{
"epoch": 1.6,
"learning_rate": 1.9333333333333333e-05,
"loss": 1.8222,
"step": 12000
},
{
"epoch": 1.67,
"learning_rate": 1.916666666666667e-05,
"loss": 1.8198,
"step": 12500
},
{
"epoch": 1.73,
"learning_rate": 1.9e-05,
"loss": 1.8256,
"step": 13000
},
{
"epoch": 1.8,
"learning_rate": 1.8833333333333335e-05,
"loss": 1.8101,
"step": 13500
},
{
"epoch": 1.87,
"learning_rate": 1.866666666666667e-05,
"loss": 1.8103,
"step": 14000
},
{
"epoch": 1.93,
"learning_rate": 1.8500000000000002e-05,
"loss": 1.8023,
"step": 14500
},
{
"epoch": 2.0,
"learning_rate": 1.8333333333333333e-05,
"loss": 1.8053,
"step": 15000
},
{
"epoch": 2.07,
"learning_rate": 1.8166666666666667e-05,
"loss": 1.7554,
"step": 15500
},
{
"epoch": 2.13,
"learning_rate": 1.8e-05,
"loss": 1.7494,
"step": 16000
},
{
"epoch": 2.2,
"learning_rate": 1.7833333333333334e-05,
"loss": 1.7611,
"step": 16500
},
{
"epoch": 2.27,
"learning_rate": 1.7666666666666668e-05,
"loss": 1.7422,
"step": 17000
},
{
"epoch": 2.33,
"learning_rate": 1.7500000000000002e-05,
"loss": 1.7449,
"step": 17500
},
{
"epoch": 2.4,
"learning_rate": 1.7333333333333336e-05,
"loss": 1.7377,
"step": 18000
},
{
"epoch": 2.47,
"learning_rate": 1.7166666666666666e-05,
"loss": 1.7379,
"step": 18500
},
{
"epoch": 2.53,
"learning_rate": 1.7e-05,
"loss": 1.7374,
"step": 19000
},
{
"epoch": 2.6,
"learning_rate": 1.6833333333333334e-05,
"loss": 1.7343,
"step": 19500
},
{
"epoch": 2.67,
"learning_rate": 1.6666666666666667e-05,
"loss": 1.7417,
"step": 20000
},
{
"epoch": 2.73,
"learning_rate": 1.65e-05,
"loss": 1.7388,
"step": 20500
},
{
"epoch": 2.8,
"learning_rate": 1.6333333333333335e-05,
"loss": 1.7349,
"step": 21000
},
{
"epoch": 2.87,
"learning_rate": 1.616666666666667e-05,
"loss": 1.7353,
"step": 21500
},
{
"epoch": 2.93,
"learning_rate": 1.6000000000000003e-05,
"loss": 1.7196,
"step": 22000
},
{
"epoch": 3.0,
"learning_rate": 1.5833333333333333e-05,
"loss": 1.7238,
"step": 22500
},
{
"epoch": 3.07,
"learning_rate": 1.5666666666666667e-05,
"loss": 1.6832,
"step": 23000
},
{
"epoch": 3.14,
"learning_rate": 1.55e-05,
"loss": 1.6794,
"step": 23500
},
{
"epoch": 3.2,
"learning_rate": 1.5333333333333334e-05,
"loss": 1.6732,
"step": 24000
},
{
"epoch": 3.27,
"learning_rate": 1.5166666666666667e-05,
"loss": 1.6883,
"step": 24500
},
{
"epoch": 3.34,
"learning_rate": 1.5000000000000002e-05,
"loss": 1.6802,
"step": 25000
},
{
"epoch": 3.4,
"learning_rate": 1.4833333333333336e-05,
"loss": 1.6817,
"step": 25500
},
{
"epoch": 3.47,
"learning_rate": 1.4666666666666666e-05,
"loss": 1.6961,
"step": 26000
},
{
"epoch": 3.54,
"learning_rate": 1.45e-05,
"loss": 1.6871,
"step": 26500
},
{
"epoch": 3.6,
"learning_rate": 1.4333333333333334e-05,
"loss": 1.69,
"step": 27000
},
{
"epoch": 3.67,
"learning_rate": 1.416666666666667e-05,
"loss": 1.6912,
"step": 27500
},
{
"epoch": 3.74,
"learning_rate": 1.4e-05,
"loss": 1.6815,
"step": 28000
},
{
"epoch": 3.8,
"learning_rate": 1.3833333333333334e-05,
"loss": 1.6775,
"step": 28500
},
{
"epoch": 3.87,
"learning_rate": 1.3666666666666667e-05,
"loss": 1.6736,
"step": 29000
},
{
"epoch": 3.94,
"learning_rate": 1.3500000000000001e-05,
"loss": 1.6827,
"step": 29500
},
{
"epoch": 4.0,
"learning_rate": 1.3333333333333333e-05,
"loss": 1.6698,
"step": 30000
},
{
"epoch": 4.07,
"learning_rate": 1.3166666666666667e-05,
"loss": 1.6342,
"step": 30500
},
{
"epoch": 4.14,
"learning_rate": 1.3000000000000001e-05,
"loss": 1.6367,
"step": 31000
},
{
"epoch": 4.2,
"learning_rate": 1.2833333333333335e-05,
"loss": 1.6423,
"step": 31500
},
{
"epoch": 4.27,
"learning_rate": 1.2666666666666667e-05,
"loss": 1.6381,
"step": 32000
},
{
"epoch": 4.34,
"learning_rate": 1.25e-05,
"loss": 1.6493,
"step": 32500
},
{
"epoch": 4.4,
"learning_rate": 1.2333333333333334e-05,
"loss": 1.658,
"step": 33000
},
{
"epoch": 4.47,
"learning_rate": 1.2166666666666667e-05,
"loss": 1.6583,
"step": 33500
},
{
"epoch": 4.54,
"learning_rate": 1.2e-05,
"loss": 1.6511,
"step": 34000
},
{
"epoch": 4.6,
"learning_rate": 1.1833333333333334e-05,
"loss": 1.6372,
"step": 34500
},
{
"epoch": 4.67,
"learning_rate": 1.1666666666666668e-05,
"loss": 1.6346,
"step": 35000
},
{
"epoch": 4.74,
"learning_rate": 1.15e-05,
"loss": 1.6378,
"step": 35500
},
{
"epoch": 4.8,
"learning_rate": 1.1333333333333334e-05,
"loss": 1.6472,
"step": 36000
},
{
"epoch": 4.87,
"learning_rate": 1.1166666666666668e-05,
"loss": 1.6411,
"step": 36500
},
{
"epoch": 4.94,
"learning_rate": 1.1000000000000001e-05,
"loss": 1.6541,
"step": 37000
},
{
"epoch": 5.0,
"learning_rate": 1.0833333333333334e-05,
"loss": 1.6456,
"step": 37500
},
{
"epoch": 5.07,
"learning_rate": 1.0666666666666667e-05,
"loss": 1.6074,
"step": 38000
},
{
"epoch": 5.14,
"learning_rate": 1.0500000000000001e-05,
"loss": 1.6096,
"step": 38500
},
{
"epoch": 5.2,
"learning_rate": 1.0333333333333335e-05,
"loss": 1.6095,
"step": 39000
},
{
"epoch": 5.27,
"learning_rate": 1.0166666666666667e-05,
"loss": 1.613,
"step": 39500
},
{
"epoch": 5.34,
"learning_rate": 1e-05,
"loss": 1.6147,
"step": 40000
},
{
"epoch": 5.4,
"learning_rate": 9.833333333333333e-06,
"loss": 1.6197,
"step": 40500
},
{
"epoch": 5.47,
"learning_rate": 9.666666666666667e-06,
"loss": 1.6239,
"step": 41000
},
{
"epoch": 5.54,
"learning_rate": 9.5e-06,
"loss": 1.6106,
"step": 41500
},
{
"epoch": 5.6,
"learning_rate": 9.333333333333334e-06,
"loss": 1.6283,
"step": 42000
},
{
"epoch": 5.67,
"learning_rate": 9.166666666666666e-06,
"loss": 1.6238,
"step": 42500
},
{
"epoch": 5.74,
"learning_rate": 9e-06,
"loss": 1.6203,
"step": 43000
},
{
"epoch": 5.8,
"learning_rate": 8.833333333333334e-06,
"loss": 1.6168,
"step": 43500
},
{
"epoch": 5.87,
"learning_rate": 8.666666666666668e-06,
"loss": 1.616,
"step": 44000
},
{
"epoch": 5.94,
"learning_rate": 8.5e-06,
"loss": 1.6147,
"step": 44500
},
{
"epoch": 6.0,
"learning_rate": 8.333333333333334e-06,
"loss": 1.613,
"step": 45000
},
{
"epoch": 6.07,
"learning_rate": 8.166666666666668e-06,
"loss": 1.5841,
"step": 45500
},
{
"epoch": 6.14,
"learning_rate": 8.000000000000001e-06,
"loss": 1.5944,
"step": 46000
},
{
"epoch": 6.2,
"learning_rate": 7.833333333333333e-06,
"loss": 1.5869,
"step": 46500
},
{
"epoch": 6.27,
"learning_rate": 7.666666666666667e-06,
"loss": 1.6011,
"step": 47000
},
{
"epoch": 6.34,
"learning_rate": 7.500000000000001e-06,
"loss": 1.5883,
"step": 47500
},
{
"epoch": 6.4,
"learning_rate": 7.333333333333333e-06,
"loss": 1.5938,
"step": 48000
},
{
"epoch": 6.47,
"learning_rate": 7.166666666666667e-06,
"loss": 1.6022,
"step": 48500
},
{
"epoch": 6.54,
"learning_rate": 7e-06,
"loss": 1.6003,
"step": 49000
},
{
"epoch": 6.6,
"learning_rate": 6.833333333333334e-06,
"loss": 1.5905,
"step": 49500
},
{
"epoch": 6.67,
"learning_rate": 6.666666666666667e-06,
"loss": 1.5888,
"step": 50000
},
{
"epoch": 6.74,
"learning_rate": 6.5000000000000004e-06,
"loss": 1.5845,
"step": 50500
},
{
"epoch": 6.8,
"learning_rate": 6.333333333333333e-06,
"loss": 1.5962,
"step": 51000
},
{
"epoch": 6.87,
"learning_rate": 6.166666666666667e-06,
"loss": 1.6034,
"step": 51500
},
{
"epoch": 6.94,
"learning_rate": 6e-06,
"loss": 1.5877,
"step": 52000
},
{
"epoch": 7.0,
"learning_rate": 5.833333333333334e-06,
"loss": 1.6018,
"step": 52500
},
{
"epoch": 7.07,
"learning_rate": 5.666666666666667e-06,
"loss": 1.574,
"step": 53000
},
{
"epoch": 7.14,
"learning_rate": 5.500000000000001e-06,
"loss": 1.5817,
"step": 53500
},
{
"epoch": 7.2,
"learning_rate": 5.333333333333334e-06,
"loss": 1.5845,
"step": 54000
},
{
"epoch": 7.27,
"learning_rate": 5.1666666666666675e-06,
"loss": 1.5737,
"step": 54500
},
{
"epoch": 7.34,
"learning_rate": 5e-06,
"loss": 1.5807,
"step": 55000
},
{
"epoch": 7.4,
"learning_rate": 4.833333333333333e-06,
"loss": 1.5752,
"step": 55500
},
{
"epoch": 7.47,
"learning_rate": 4.666666666666667e-06,
"loss": 1.5724,
"step": 56000
},
{
"epoch": 7.54,
"learning_rate": 4.5e-06,
"loss": 1.5793,
"step": 56500
},
{
"epoch": 7.6,
"learning_rate": 4.333333333333334e-06,
"loss": 1.5843,
"step": 57000
},
{
"epoch": 7.67,
"learning_rate": 4.166666666666667e-06,
"loss": 1.582,
"step": 57500
},
{
"epoch": 7.74,
"learning_rate": 4.000000000000001e-06,
"loss": 1.5727,
"step": 58000
},
{
"epoch": 7.8,
"learning_rate": 3.833333333333334e-06,
"loss": 1.5717,
"step": 58500
},
{
"epoch": 7.87,
"learning_rate": 3.6666666666666666e-06,
"loss": 1.5656,
"step": 59000
},
{
"epoch": 7.94,
"learning_rate": 3.5e-06,
"loss": 1.5735,
"step": 59500
},
{
"epoch": 8.0,
"learning_rate": 3.3333333333333333e-06,
"loss": 1.5698,
"step": 60000
},
{
"epoch": 8.07,
"learning_rate": 3.1666666666666667e-06,
"loss": 1.556,
"step": 60500
},
{
"epoch": 8.14,
"learning_rate": 3e-06,
"loss": 1.5567,
"step": 61000
},
{
"epoch": 8.2,
"learning_rate": 2.8333333333333335e-06,
"loss": 1.5698,
"step": 61500
},
{
"epoch": 8.27,
"learning_rate": 2.666666666666667e-06,
"loss": 1.5672,
"step": 62000
},
{
"epoch": 8.34,
"learning_rate": 2.5e-06,
"loss": 1.5641,
"step": 62500
},
{
"epoch": 8.4,
"learning_rate": 2.3333333333333336e-06,
"loss": 1.5618,
"step": 63000
},
{
"epoch": 8.47,
"learning_rate": 2.166666666666667e-06,
"loss": 1.5701,
"step": 63500
},
{
"epoch": 8.54,
"learning_rate": 2.0000000000000003e-06,
"loss": 1.5646,
"step": 64000
},
{
"epoch": 8.6,
"learning_rate": 1.8333333333333333e-06,
"loss": 1.5579,
"step": 64500
},
{
"epoch": 8.67,
"learning_rate": 1.6666666666666667e-06,
"loss": 1.5532,
"step": 65000
},
{
"epoch": 8.74,
"learning_rate": 1.5e-06,
"loss": 1.5693,
"step": 65500
},
{
"epoch": 8.8,
"learning_rate": 1.3333333333333334e-06,
"loss": 1.5589,
"step": 66000
},
{
"epoch": 8.87,
"learning_rate": 1.1666666666666668e-06,
"loss": 1.5637,
"step": 66500
},
{
"epoch": 8.94,
"learning_rate": 1.0000000000000002e-06,
"loss": 1.5725,
"step": 67000
},
{
"epoch": 9.0,
"learning_rate": 8.333333333333333e-07,
"loss": 1.5616,
"step": 67500
},
{
"epoch": 9.07,
"learning_rate": 6.666666666666667e-07,
"loss": 1.5466,
"step": 68000
},
{
"epoch": 9.14,
"learning_rate": 5.000000000000001e-07,
"loss": 1.5529,
"step": 68500
},
{
"epoch": 9.2,
"learning_rate": 3.3333333333333335e-07,
"loss": 1.5655,
"step": 69000
},
{
"epoch": 9.27,
"learning_rate": 1.6666666666666668e-07,
"loss": 1.5664,
"step": 69500
},
{
"epoch": 9.34,
"learning_rate": 0.0,
"loss": 1.5561,
"step": 70000
}
],
"max_steps": 70000,
"num_train_epochs": 10,
"total_flos": 6.828389816913101e+17,
"trial_name": null,
"trial_params": null
}