{ "best_metric": 21.90708681959637, "best_model_checkpoint": "./Whisper-Small-Deep-Sparse-squeezeformer\\checkpoint-41250", "epoch": 14.0, "eval_steps": 3750, "global_step": 52500, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.006666666666666667, "grad_norm": 341.6894226074219, "learning_rate": 5.3333333333333334e-08, "loss": 12.4025, "step": 25 }, { "epoch": 0.013333333333333334, "grad_norm": 95.73214721679688, "learning_rate": 1.2000000000000002e-07, "loss": 11.2527, "step": 50 }, { "epoch": 0.02, "grad_norm": 91.39665222167969, "learning_rate": 1.866666666666667e-07, "loss": 9.9598, "step": 75 }, { "epoch": 0.02666666666666667, "grad_norm": 48.57121276855469, "learning_rate": 2.533333333333333e-07, "loss": 8.2159, "step": 100 }, { "epoch": 0.03333333333333333, "grad_norm": 51.45375061035156, "learning_rate": 3.2e-07, "loss": 7.0011, "step": 125 }, { "epoch": 0.04, "grad_norm": 26.603036880493164, "learning_rate": 3.8666666666666674e-07, "loss": 6.1258, "step": 150 }, { "epoch": 0.04666666666666667, "grad_norm": 29.51360321044922, "learning_rate": 4.533333333333334e-07, "loss": 5.5256, "step": 175 }, { "epoch": 0.05333333333333334, "grad_norm": 25.287076950073242, "learning_rate": 5.2e-07, "loss": 4.9047, "step": 200 }, { "epoch": 0.06, "grad_norm": 22.6489315032959, "learning_rate": 5.866666666666667e-07, "loss": 4.6323, "step": 225 }, { "epoch": 0.06666666666666667, "grad_norm": 27.176576614379883, "learning_rate": 6.533333333333334e-07, "loss": 4.3741, "step": 250 }, { "epoch": 0.07333333333333333, "grad_norm": 30.663158416748047, "learning_rate": 7.2e-07, "loss": 4.1854, "step": 275 }, { "epoch": 0.08, "grad_norm": 28.007034301757812, "learning_rate": 7.866666666666667e-07, "loss": 4.0443, "step": 300 }, { "epoch": 0.08666666666666667, "grad_norm": 27.05411148071289, "learning_rate": 8.533333333333334e-07, "loss": 3.8969, "step": 325 }, { "epoch": 0.09333333333333334, "grad_norm": 32.0178337097168, "learning_rate": 9.200000000000001e-07, "loss": 3.6478, "step": 350 }, { "epoch": 0.1, "grad_norm": 30.61972999572754, "learning_rate": 9.866666666666668e-07, "loss": 3.6502, "step": 375 }, { "epoch": 0.10666666666666667, "grad_norm": 30.98021697998047, "learning_rate": 1.0533333333333333e-06, "loss": 3.5696, "step": 400 }, { "epoch": 0.11333333333333333, "grad_norm": 33.69405746459961, "learning_rate": 1.12e-06, "loss": 3.5124, "step": 425 }, { "epoch": 0.12, "grad_norm": 29.248090744018555, "learning_rate": 1.1866666666666668e-06, "loss": 3.5112, "step": 450 }, { "epoch": 0.12666666666666668, "grad_norm": 24.715110778808594, "learning_rate": 1.2533333333333333e-06, "loss": 3.397, "step": 475 }, { "epoch": 0.13333333333333333, "grad_norm": 25.329618453979492, "learning_rate": 1.32e-06, "loss": 3.358, "step": 500 }, { "epoch": 0.14, "grad_norm": 28.094396591186523, "learning_rate": 1.3866666666666668e-06, "loss": 3.4129, "step": 525 }, { "epoch": 0.14666666666666667, "grad_norm": 26.302722930908203, "learning_rate": 1.4533333333333335e-06, "loss": 3.3472, "step": 550 }, { "epoch": 0.15333333333333332, "grad_norm": 30.217832565307617, "learning_rate": 1.52e-06, "loss": 3.366, "step": 575 }, { "epoch": 0.16, "grad_norm": 28.22956657409668, "learning_rate": 1.586666666666667e-06, "loss": 3.3324, "step": 600 }, { "epoch": 0.16666666666666666, "grad_norm": 23.994829177856445, "learning_rate": 1.6533333333333335e-06, "loss": 3.3132, "step": 625 }, { "epoch": 0.17333333333333334, "grad_norm": 25.643823623657227, "learning_rate": 1.72e-06, "loss": 3.3095, "step": 650 }, { "epoch": 0.18, "grad_norm": 23.775846481323242, "learning_rate": 1.7866666666666668e-06, "loss": 3.3151, "step": 675 }, { "epoch": 0.18666666666666668, "grad_norm": 26.721607208251953, "learning_rate": 1.8533333333333333e-06, "loss": 3.2898, "step": 700 }, { "epoch": 0.19333333333333333, "grad_norm": 26.453765869140625, "learning_rate": 1.9200000000000003e-06, "loss": 3.3478, "step": 725 }, { "epoch": 0.2, "grad_norm": 28.801469802856445, "learning_rate": 1.9866666666666666e-06, "loss": 3.2595, "step": 750 }, { "epoch": 0.20666666666666667, "grad_norm": 25.9772891998291, "learning_rate": 2.0533333333333337e-06, "loss": 3.2622, "step": 775 }, { "epoch": 0.21333333333333335, "grad_norm": 25.04965591430664, "learning_rate": 2.12e-06, "loss": 3.193, "step": 800 }, { "epoch": 0.22, "grad_norm": 24.217599868774414, "learning_rate": 2.1866666666666668e-06, "loss": 3.237, "step": 825 }, { "epoch": 0.22666666666666666, "grad_norm": 23.15784454345703, "learning_rate": 2.2533333333333335e-06, "loss": 3.3068, "step": 850 }, { "epoch": 0.23333333333333334, "grad_norm": 25.63294219970703, "learning_rate": 2.3200000000000002e-06, "loss": 3.2523, "step": 875 }, { "epoch": 0.24, "grad_norm": 27.958784103393555, "learning_rate": 2.386666666666667e-06, "loss": 3.2637, "step": 900 }, { "epoch": 0.24666666666666667, "grad_norm": 23.28430938720703, "learning_rate": 2.4533333333333333e-06, "loss": 3.2111, "step": 925 }, { "epoch": 0.25333333333333335, "grad_norm": 25.294450759887695, "learning_rate": 2.52e-06, "loss": 3.2029, "step": 950 }, { "epoch": 0.26, "grad_norm": 22.871427536010742, "learning_rate": 2.5866666666666667e-06, "loss": 3.2708, "step": 975 }, { "epoch": 0.26666666666666666, "grad_norm": 26.165912628173828, "learning_rate": 2.6533333333333335e-06, "loss": 3.2803, "step": 1000 }, { "epoch": 0.2733333333333333, "grad_norm": 27.07386016845703, "learning_rate": 2.7200000000000002e-06, "loss": 3.2048, "step": 1025 }, { "epoch": 0.28, "grad_norm": 20.76565170288086, "learning_rate": 2.786666666666667e-06, "loss": 3.1699, "step": 1050 }, { "epoch": 0.2866666666666667, "grad_norm": 22.000211715698242, "learning_rate": 2.8533333333333337e-06, "loss": 3.2544, "step": 1075 }, { "epoch": 0.29333333333333333, "grad_norm": 21.452096939086914, "learning_rate": 2.92e-06, "loss": 3.193, "step": 1100 }, { "epoch": 0.3, "grad_norm": 22.379228591918945, "learning_rate": 2.986666666666667e-06, "loss": 3.2711, "step": 1125 }, { "epoch": 0.30666666666666664, "grad_norm": 23.028841018676758, "learning_rate": 3.053333333333334e-06, "loss": 3.1682, "step": 1150 }, { "epoch": 0.31333333333333335, "grad_norm": 20.951967239379883, "learning_rate": 3.12e-06, "loss": 3.1714, "step": 1175 }, { "epoch": 0.32, "grad_norm": 22.617578506469727, "learning_rate": 3.186666666666667e-06, "loss": 3.2046, "step": 1200 }, { "epoch": 0.32666666666666666, "grad_norm": 23.753572463989258, "learning_rate": 3.2533333333333332e-06, "loss": 3.1342, "step": 1225 }, { "epoch": 0.3333333333333333, "grad_norm": 23.609323501586914, "learning_rate": 3.3200000000000004e-06, "loss": 3.2013, "step": 1250 }, { "epoch": 0.34, "grad_norm": 22.348676681518555, "learning_rate": 3.386666666666667e-06, "loss": 3.1319, "step": 1275 }, { "epoch": 0.3466666666666667, "grad_norm": 22.232507705688477, "learning_rate": 3.4533333333333334e-06, "loss": 3.2392, "step": 1300 }, { "epoch": 0.35333333333333333, "grad_norm": 19.712797164916992, "learning_rate": 3.52e-06, "loss": 3.0773, "step": 1325 }, { "epoch": 0.36, "grad_norm": 19.59438705444336, "learning_rate": 3.5866666666666673e-06, "loss": 3.1324, "step": 1350 }, { "epoch": 0.36666666666666664, "grad_norm": 23.140609741210938, "learning_rate": 3.6533333333333336e-06, "loss": 3.1029, "step": 1375 }, { "epoch": 0.37333333333333335, "grad_norm": 19.53551483154297, "learning_rate": 3.7200000000000004e-06, "loss": 3.1327, "step": 1400 }, { "epoch": 0.38, "grad_norm": 21.047807693481445, "learning_rate": 3.7866666666666667e-06, "loss": 3.1466, "step": 1425 }, { "epoch": 0.38666666666666666, "grad_norm": 18.838848114013672, "learning_rate": 3.853333333333334e-06, "loss": 3.1305, "step": 1450 }, { "epoch": 0.3933333333333333, "grad_norm": 19.004182815551758, "learning_rate": 3.920000000000001e-06, "loss": 3.1764, "step": 1475 }, { "epoch": 0.4, "grad_norm": 21.917388916015625, "learning_rate": 3.986666666666667e-06, "loss": 3.0559, "step": 1500 }, { "epoch": 0.4066666666666667, "grad_norm": 23.167360305786133, "learning_rate": 4.053333333333333e-06, "loss": 3.0876, "step": 1525 }, { "epoch": 0.41333333333333333, "grad_norm": 17.283119201660156, "learning_rate": 4.12e-06, "loss": 3.1227, "step": 1550 }, { "epoch": 0.42, "grad_norm": 20.560148239135742, "learning_rate": 4.1866666666666675e-06, "loss": 3.1085, "step": 1575 }, { "epoch": 0.4266666666666667, "grad_norm": 19.45449447631836, "learning_rate": 4.253333333333334e-06, "loss": 3.1177, "step": 1600 }, { "epoch": 0.43333333333333335, "grad_norm": 22.3554744720459, "learning_rate": 4.32e-06, "loss": 3.1222, "step": 1625 }, { "epoch": 0.44, "grad_norm": 19.383962631225586, "learning_rate": 4.3866666666666665e-06, "loss": 3.1031, "step": 1650 }, { "epoch": 0.44666666666666666, "grad_norm": 22.01602554321289, "learning_rate": 4.453333333333334e-06, "loss": 3.1277, "step": 1675 }, { "epoch": 0.4533333333333333, "grad_norm": 18.913846969604492, "learning_rate": 4.520000000000001e-06, "loss": 3.1483, "step": 1700 }, { "epoch": 0.46, "grad_norm": 23.285951614379883, "learning_rate": 4.586666666666667e-06, "loss": 3.1021, "step": 1725 }, { "epoch": 0.4666666666666667, "grad_norm": 18.34486198425293, "learning_rate": 4.653333333333333e-06, "loss": 3.0615, "step": 1750 }, { "epoch": 0.47333333333333333, "grad_norm": 18.678232192993164, "learning_rate": 4.7200000000000005e-06, "loss": 3.0838, "step": 1775 }, { "epoch": 0.48, "grad_norm": 21.94325828552246, "learning_rate": 4.786666666666667e-06, "loss": 3.0537, "step": 1800 }, { "epoch": 0.4866666666666667, "grad_norm": 17.650772094726562, "learning_rate": 4.853333333333334e-06, "loss": 3.1281, "step": 1825 }, { "epoch": 0.49333333333333335, "grad_norm": 19.061779022216797, "learning_rate": 4.92e-06, "loss": 3.0604, "step": 1850 }, { "epoch": 0.5, "grad_norm": 16.984159469604492, "learning_rate": 4.986666666666667e-06, "loss": 3.0636, "step": 1875 }, { "epoch": 0.5066666666666667, "grad_norm": 19.32461929321289, "learning_rate": 5.053333333333334e-06, "loss": 3.1515, "step": 1900 }, { "epoch": 0.5133333333333333, "grad_norm": 19.92173194885254, "learning_rate": 5.12e-06, "loss": 3.0443, "step": 1925 }, { "epoch": 0.52, "grad_norm": 18.79073143005371, "learning_rate": 5.186666666666667e-06, "loss": 3.0808, "step": 1950 }, { "epoch": 0.5266666666666666, "grad_norm": 19.53661346435547, "learning_rate": 5.2533333333333336e-06, "loss": 3.0959, "step": 1975 }, { "epoch": 0.5333333333333333, "grad_norm": 21.550764083862305, "learning_rate": 5.320000000000001e-06, "loss": 3.052, "step": 2000 }, { "epoch": 0.54, "grad_norm": 20.180532455444336, "learning_rate": 5.386666666666667e-06, "loss": 3.0556, "step": 2025 }, { "epoch": 0.5466666666666666, "grad_norm": 18.203041076660156, "learning_rate": 5.453333333333334e-06, "loss": 2.9597, "step": 2050 }, { "epoch": 0.5533333333333333, "grad_norm": 18.51413917541504, "learning_rate": 5.5200000000000005e-06, "loss": 3.1033, "step": 2075 }, { "epoch": 0.56, "grad_norm": 17.03452491760254, "learning_rate": 5.586666666666667e-06, "loss": 3.0773, "step": 2100 }, { "epoch": 0.5666666666666667, "grad_norm": 17.484933853149414, "learning_rate": 5.653333333333334e-06, "loss": 3.0569, "step": 2125 }, { "epoch": 0.5733333333333334, "grad_norm": 18.04798698425293, "learning_rate": 5.72e-06, "loss": 3.0315, "step": 2150 }, { "epoch": 0.58, "grad_norm": 17.24923324584961, "learning_rate": 5.7866666666666674e-06, "loss": 3.0636, "step": 2175 }, { "epoch": 0.5866666666666667, "grad_norm": 18.555931091308594, "learning_rate": 5.853333333333335e-06, "loss": 3.0946, "step": 2200 }, { "epoch": 0.5933333333333334, "grad_norm": 18.81598663330078, "learning_rate": 5.92e-06, "loss": 3.0941, "step": 2225 }, { "epoch": 0.6, "grad_norm": 17.86992835998535, "learning_rate": 5.986666666666667e-06, "loss": 3.0711, "step": 2250 }, { "epoch": 0.6066666666666667, "grad_norm": 17.46080207824707, "learning_rate": 6.0533333333333335e-06, "loss": 3.0858, "step": 2275 }, { "epoch": 0.6133333333333333, "grad_norm": 16.98501968383789, "learning_rate": 6.120000000000001e-06, "loss": 3.0773, "step": 2300 }, { "epoch": 0.62, "grad_norm": 18.592113494873047, "learning_rate": 6.186666666666668e-06, "loss": 3.0392, "step": 2325 }, { "epoch": 0.6266666666666667, "grad_norm": 19.04000473022461, "learning_rate": 6.253333333333333e-06, "loss": 3.0683, "step": 2350 }, { "epoch": 0.6333333333333333, "grad_norm": 19.155744552612305, "learning_rate": 6.3200000000000005e-06, "loss": 3.0815, "step": 2375 }, { "epoch": 0.64, "grad_norm": 17.485628128051758, "learning_rate": 6.386666666666668e-06, "loss": 3.0316, "step": 2400 }, { "epoch": 0.6466666666666666, "grad_norm": 16.509910583496094, "learning_rate": 6.453333333333334e-06, "loss": 2.9716, "step": 2425 }, { "epoch": 0.6533333333333333, "grad_norm": 18.880613327026367, "learning_rate": 6.520000000000001e-06, "loss": 2.9816, "step": 2450 }, { "epoch": 0.66, "grad_norm": 16.956315994262695, "learning_rate": 6.5866666666666666e-06, "loss": 2.9819, "step": 2475 }, { "epoch": 0.6666666666666666, "grad_norm": 15.489541053771973, "learning_rate": 6.653333333333334e-06, "loss": 3.0155, "step": 2500 }, { "epoch": 0.6733333333333333, "grad_norm": 16.226993560791016, "learning_rate": 6.720000000000001e-06, "loss": 2.9634, "step": 2525 }, { "epoch": 0.68, "grad_norm": 18.577804565429688, "learning_rate": 6.786666666666667e-06, "loss": 3.0212, "step": 2550 }, { "epoch": 0.6866666666666666, "grad_norm": 19.642972946166992, "learning_rate": 6.853333333333334e-06, "loss": 3.0452, "step": 2575 }, { "epoch": 0.6933333333333334, "grad_norm": 20.732463836669922, "learning_rate": 6.92e-06, "loss": 3.0438, "step": 2600 }, { "epoch": 0.7, "grad_norm": 19.23662567138672, "learning_rate": 6.986666666666667e-06, "loss": 3.0027, "step": 2625 }, { "epoch": 0.7066666666666667, "grad_norm": 17.022666931152344, "learning_rate": 7.053333333333334e-06, "loss": 3.0027, "step": 2650 }, { "epoch": 0.7133333333333334, "grad_norm": 17.811634063720703, "learning_rate": 7.1200000000000004e-06, "loss": 2.9999, "step": 2675 }, { "epoch": 0.72, "grad_norm": 17.39553451538086, "learning_rate": 7.186666666666668e-06, "loss": 2.9887, "step": 2700 }, { "epoch": 0.7266666666666667, "grad_norm": 17.601457595825195, "learning_rate": 7.253333333333335e-06, "loss": 3.056, "step": 2725 }, { "epoch": 0.7333333333333333, "grad_norm": 15.807161331176758, "learning_rate": 7.32e-06, "loss": 3.0375, "step": 2750 }, { "epoch": 0.74, "grad_norm": 15.955351829528809, "learning_rate": 7.386666666666667e-06, "loss": 2.9948, "step": 2775 }, { "epoch": 0.7466666666666667, "grad_norm": 17.539344787597656, "learning_rate": 7.453333333333334e-06, "loss": 3.021, "step": 2800 }, { "epoch": 0.7533333333333333, "grad_norm": 16.718015670776367, "learning_rate": 7.520000000000001e-06, "loss": 2.9541, "step": 2825 }, { "epoch": 0.76, "grad_norm": 16.56117820739746, "learning_rate": 7.586666666666668e-06, "loss": 2.9813, "step": 2850 }, { "epoch": 0.7666666666666667, "grad_norm": 18.039369583129883, "learning_rate": 7.653333333333333e-06, "loss": 2.9808, "step": 2875 }, { "epoch": 0.7733333333333333, "grad_norm": 16.64910888671875, "learning_rate": 7.72e-06, "loss": 2.9876, "step": 2900 }, { "epoch": 0.78, "grad_norm": 16.93351173400879, "learning_rate": 7.786666666666666e-06, "loss": 2.9774, "step": 2925 }, { "epoch": 0.7866666666666666, "grad_norm": 16.61748504638672, "learning_rate": 7.853333333333333e-06, "loss": 2.9644, "step": 2950 }, { "epoch": 0.7933333333333333, "grad_norm": 16.636804580688477, "learning_rate": 7.92e-06, "loss": 3.0377, "step": 2975 }, { "epoch": 0.8, "grad_norm": 16.531147003173828, "learning_rate": 7.986666666666668e-06, "loss": 2.946, "step": 3000 }, { "epoch": 0.8066666666666666, "grad_norm": 15.774276733398438, "learning_rate": 8.053333333333335e-06, "loss": 2.9455, "step": 3025 }, { "epoch": 0.8133333333333334, "grad_norm": 17.189855575561523, "learning_rate": 8.120000000000002e-06, "loss": 2.9674, "step": 3050 }, { "epoch": 0.82, "grad_norm": 17.4788761138916, "learning_rate": 8.186666666666667e-06, "loss": 2.9119, "step": 3075 }, { "epoch": 0.8266666666666667, "grad_norm": 15.78774642944336, "learning_rate": 8.253333333333334e-06, "loss": 2.9331, "step": 3100 }, { "epoch": 0.8333333333333334, "grad_norm": 16.7214412689209, "learning_rate": 8.32e-06, "loss": 2.9638, "step": 3125 }, { "epoch": 0.84, "grad_norm": 15.615275382995605, "learning_rate": 8.386666666666667e-06, "loss": 2.9541, "step": 3150 }, { "epoch": 0.8466666666666667, "grad_norm": 17.401281356811523, "learning_rate": 8.453333333333334e-06, "loss": 2.9615, "step": 3175 }, { "epoch": 0.8533333333333334, "grad_norm": 15.968623161315918, "learning_rate": 8.52e-06, "loss": 2.8984, "step": 3200 }, { "epoch": 0.86, "grad_norm": 15.676631927490234, "learning_rate": 8.586666666666667e-06, "loss": 2.9337, "step": 3225 }, { "epoch": 0.8666666666666667, "grad_norm": 16.227506637573242, "learning_rate": 8.653333333333334e-06, "loss": 2.9757, "step": 3250 }, { "epoch": 0.8733333333333333, "grad_norm": 15.674692153930664, "learning_rate": 8.720000000000001e-06, "loss": 2.918, "step": 3275 }, { "epoch": 0.88, "grad_norm": 15.727570533752441, "learning_rate": 8.786666666666668e-06, "loss": 2.9765, "step": 3300 }, { "epoch": 0.8866666666666667, "grad_norm": 16.113643646240234, "learning_rate": 8.853333333333334e-06, "loss": 2.983, "step": 3325 }, { "epoch": 0.8933333333333333, "grad_norm": 17.790021896362305, "learning_rate": 8.920000000000001e-06, "loss": 2.9809, "step": 3350 }, { "epoch": 0.9, "grad_norm": 21.428924560546875, "learning_rate": 8.986666666666666e-06, "loss": 2.9331, "step": 3375 }, { "epoch": 0.9066666666666666, "grad_norm": 17.002042770385742, "learning_rate": 9.053333333333334e-06, "loss": 2.9123, "step": 3400 }, { "epoch": 0.9133333333333333, "grad_norm": 17.108341217041016, "learning_rate": 9.12e-06, "loss": 2.9322, "step": 3425 }, { "epoch": 0.92, "grad_norm": 15.586006164550781, "learning_rate": 9.186666666666666e-06, "loss": 2.9684, "step": 3450 }, { "epoch": 0.9266666666666666, "grad_norm": 14.741401672363281, "learning_rate": 9.253333333333333e-06, "loss": 2.9209, "step": 3475 }, { "epoch": 0.9333333333333333, "grad_norm": 15.77791976928711, "learning_rate": 9.32e-06, "loss": 2.929, "step": 3500 }, { "epoch": 0.94, "grad_norm": 15.413435935974121, "learning_rate": 9.386666666666668e-06, "loss": 2.9359, "step": 3525 }, { "epoch": 0.9466666666666667, "grad_norm": 16.549705505371094, "learning_rate": 9.453333333333335e-06, "loss": 2.9653, "step": 3550 }, { "epoch": 0.9533333333333334, "grad_norm": 15.592329025268555, "learning_rate": 9.52e-06, "loss": 2.8658, "step": 3575 }, { "epoch": 0.96, "grad_norm": 15.950963020324707, "learning_rate": 9.586666666666667e-06, "loss": 2.9532, "step": 3600 }, { "epoch": 0.9666666666666667, "grad_norm": 17.098966598510742, "learning_rate": 9.653333333333335e-06, "loss": 2.9596, "step": 3625 }, { "epoch": 0.9733333333333334, "grad_norm": 15.557010650634766, "learning_rate": 9.72e-06, "loss": 2.8757, "step": 3650 }, { "epoch": 0.98, "grad_norm": 16.783491134643555, "learning_rate": 9.786666666666667e-06, "loss": 2.9512, "step": 3675 }, { "epoch": 0.9866666666666667, "grad_norm": 15.672933578491211, "learning_rate": 9.853333333333334e-06, "loss": 2.9384, "step": 3700 }, { "epoch": 0.9933333333333333, "grad_norm": 17.18918800354004, "learning_rate": 9.920000000000002e-06, "loss": 2.9272, "step": 3725 }, { "epoch": 1.0, "grad_norm": 16.648202896118164, "learning_rate": 9.986666666666667e-06, "loss": 2.9397, "step": 3750 }, { "epoch": 1.0, "eval_cer": 98.22782923056856, "eval_loss": 2.9583139419555664, "eval_runtime": 1253.0587, "eval_samples_per_second": 3.99, "eval_steps_per_second": 0.499, "step": 3750 }, { "epoch": 1.0066666666666666, "grad_norm": 14.779980659484863, "learning_rate": 9.992380952380954e-06, "loss": 2.8298, "step": 3775 }, { "epoch": 1.0133333333333334, "grad_norm": 15.95177173614502, "learning_rate": 9.982857142857144e-06, "loss": 2.8115, "step": 3800 }, { "epoch": 1.02, "grad_norm": 16.43769645690918, "learning_rate": 9.973333333333333e-06, "loss": 2.8138, "step": 3825 }, { "epoch": 1.0266666666666666, "grad_norm": 15.208324432373047, "learning_rate": 9.963809523809524e-06, "loss": 2.8244, "step": 3850 }, { "epoch": 1.0333333333333334, "grad_norm": 15.572006225585938, "learning_rate": 9.954285714285715e-06, "loss": 2.8923, "step": 3875 }, { "epoch": 1.04, "grad_norm": 18.529077529907227, "learning_rate": 9.944761904761905e-06, "loss": 2.896, "step": 3900 }, { "epoch": 1.0466666666666666, "grad_norm": 15.216551780700684, "learning_rate": 9.935238095238096e-06, "loss": 2.8147, "step": 3925 }, { "epoch": 1.0533333333333332, "grad_norm": 20.469776153564453, "learning_rate": 9.925714285714287e-06, "loss": 2.8408, "step": 3950 }, { "epoch": 1.06, "grad_norm": 17.29001235961914, "learning_rate": 9.916190476190477e-06, "loss": 2.8295, "step": 3975 }, { "epoch": 1.0666666666666667, "grad_norm": 15.096774101257324, "learning_rate": 9.906666666666668e-06, "loss": 2.8606, "step": 4000 }, { "epoch": 1.0733333333333333, "grad_norm": 15.972430229187012, "learning_rate": 9.897142857142858e-06, "loss": 2.8111, "step": 4025 }, { "epoch": 1.08, "grad_norm": 16.91921043395996, "learning_rate": 9.887619047619047e-06, "loss": 2.8523, "step": 4050 }, { "epoch": 1.0866666666666667, "grad_norm": 15.283670425415039, "learning_rate": 9.878095238095238e-06, "loss": 2.7931, "step": 4075 }, { "epoch": 1.0933333333333333, "grad_norm": 15.643978118896484, "learning_rate": 9.86857142857143e-06, "loss": 2.8494, "step": 4100 }, { "epoch": 1.1, "grad_norm": 14.783365249633789, "learning_rate": 9.859047619047621e-06, "loss": 2.7887, "step": 4125 }, { "epoch": 1.1066666666666667, "grad_norm": 15.529780387878418, "learning_rate": 9.84952380952381e-06, "loss": 2.8297, "step": 4150 }, { "epoch": 1.1133333333333333, "grad_norm": 17.3568115234375, "learning_rate": 9.84e-06, "loss": 2.8135, "step": 4175 }, { "epoch": 1.12, "grad_norm": 15.874924659729004, "learning_rate": 9.830476190476191e-06, "loss": 2.7808, "step": 4200 }, { "epoch": 1.1266666666666667, "grad_norm": 15.664294242858887, "learning_rate": 9.820952380952382e-06, "loss": 2.8664, "step": 4225 }, { "epoch": 1.1333333333333333, "grad_norm": 15.060588836669922, "learning_rate": 9.811428571428571e-06, "loss": 2.826, "step": 4250 }, { "epoch": 1.1400000000000001, "grad_norm": 15.647759437561035, "learning_rate": 9.801904761904763e-06, "loss": 2.8466, "step": 4275 }, { "epoch": 1.1466666666666667, "grad_norm": 18.541467666625977, "learning_rate": 9.792380952380954e-06, "loss": 2.8437, "step": 4300 }, { "epoch": 1.1533333333333333, "grad_norm": 13.39999771118164, "learning_rate": 9.782857142857145e-06, "loss": 2.7995, "step": 4325 }, { "epoch": 1.16, "grad_norm": 15.19958209991455, "learning_rate": 9.773333333333335e-06, "loss": 2.782, "step": 4350 }, { "epoch": 1.1666666666666667, "grad_norm": 15.036745071411133, "learning_rate": 9.763809523809524e-06, "loss": 2.7718, "step": 4375 }, { "epoch": 1.1733333333333333, "grad_norm": 16.06926918029785, "learning_rate": 9.754285714285715e-06, "loss": 2.8308, "step": 4400 }, { "epoch": 1.18, "grad_norm": 15.306070327758789, "learning_rate": 9.744761904761905e-06, "loss": 2.8177, "step": 4425 }, { "epoch": 1.1866666666666668, "grad_norm": 16.918676376342773, "learning_rate": 9.735238095238096e-06, "loss": 2.8349, "step": 4450 }, { "epoch": 1.1933333333333334, "grad_norm": 15.187481880187988, "learning_rate": 9.725714285714287e-06, "loss": 2.8406, "step": 4475 }, { "epoch": 1.2, "grad_norm": 16.896923065185547, "learning_rate": 9.716190476190477e-06, "loss": 2.8224, "step": 4500 }, { "epoch": 1.2066666666666666, "grad_norm": 14.485836029052734, "learning_rate": 9.706666666666668e-06, "loss": 2.7704, "step": 4525 }, { "epoch": 1.2133333333333334, "grad_norm": 14.65884780883789, "learning_rate": 9.697142857142859e-06, "loss": 2.7725, "step": 4550 }, { "epoch": 1.22, "grad_norm": 14.828780174255371, "learning_rate": 9.687619047619048e-06, "loss": 2.7705, "step": 4575 }, { "epoch": 1.2266666666666666, "grad_norm": 15.499007225036621, "learning_rate": 9.678095238095238e-06, "loss": 2.7877, "step": 4600 }, { "epoch": 1.2333333333333334, "grad_norm": 14.271172523498535, "learning_rate": 9.668571428571429e-06, "loss": 2.7654, "step": 4625 }, { "epoch": 1.24, "grad_norm": 14.436586380004883, "learning_rate": 9.65904761904762e-06, "loss": 2.7896, "step": 4650 }, { "epoch": 1.2466666666666666, "grad_norm": 15.168871879577637, "learning_rate": 9.64952380952381e-06, "loss": 2.7778, "step": 4675 }, { "epoch": 1.2533333333333334, "grad_norm": 14.545412063598633, "learning_rate": 9.640000000000001e-06, "loss": 2.7927, "step": 4700 }, { "epoch": 1.26, "grad_norm": 14.792973518371582, "learning_rate": 9.630476190476192e-06, "loss": 2.8322, "step": 4725 }, { "epoch": 1.2666666666666666, "grad_norm": 14.605918884277344, "learning_rate": 9.620952380952382e-06, "loss": 2.8261, "step": 4750 }, { "epoch": 1.2733333333333334, "grad_norm": 15.15400505065918, "learning_rate": 9.611428571428573e-06, "loss": 2.7728, "step": 4775 }, { "epoch": 1.28, "grad_norm": 14.719018936157227, "learning_rate": 9.601904761904762e-06, "loss": 2.773, "step": 4800 }, { "epoch": 1.2866666666666666, "grad_norm": 15.079426765441895, "learning_rate": 9.592380952380952e-06, "loss": 2.8441, "step": 4825 }, { "epoch": 1.2933333333333334, "grad_norm": 14.373289108276367, "learning_rate": 9.582857142857143e-06, "loss": 2.8201, "step": 4850 }, { "epoch": 1.3, "grad_norm": 15.374377250671387, "learning_rate": 9.573333333333334e-06, "loss": 2.8272, "step": 4875 }, { "epoch": 1.3066666666666666, "grad_norm": 15.373920440673828, "learning_rate": 9.563809523809524e-06, "loss": 2.7466, "step": 4900 }, { "epoch": 1.3133333333333335, "grad_norm": 15.081422805786133, "learning_rate": 9.554285714285715e-06, "loss": 2.7664, "step": 4925 }, { "epoch": 1.32, "grad_norm": 15.411653518676758, "learning_rate": 9.544761904761906e-06, "loss": 2.7484, "step": 4950 }, { "epoch": 1.3266666666666667, "grad_norm": 14.415406227111816, "learning_rate": 9.535238095238096e-06, "loss": 2.7748, "step": 4975 }, { "epoch": 1.3333333333333333, "grad_norm": 19.760086059570312, "learning_rate": 9.525714285714287e-06, "loss": 2.7659, "step": 5000 }, { "epoch": 1.34, "grad_norm": 15.202425003051758, "learning_rate": 9.516190476190476e-06, "loss": 2.7506, "step": 5025 }, { "epoch": 1.3466666666666667, "grad_norm": 14.421162605285645, "learning_rate": 9.506666666666667e-06, "loss": 2.7786, "step": 5050 }, { "epoch": 1.3533333333333333, "grad_norm": 14.306904792785645, "learning_rate": 9.497142857142859e-06, "loss": 2.7958, "step": 5075 }, { "epoch": 1.3599999999999999, "grad_norm": 14.90304946899414, "learning_rate": 9.48761904761905e-06, "loss": 2.7414, "step": 5100 }, { "epoch": 1.3666666666666667, "grad_norm": 14.8449068069458, "learning_rate": 9.478095238095239e-06, "loss": 2.7793, "step": 5125 }, { "epoch": 1.3733333333333333, "grad_norm": 15.749267578125, "learning_rate": 9.46857142857143e-06, "loss": 2.795, "step": 5150 }, { "epoch": 1.38, "grad_norm": 14.493441581726074, "learning_rate": 9.45904761904762e-06, "loss": 2.7877, "step": 5175 }, { "epoch": 1.3866666666666667, "grad_norm": 14.562501907348633, "learning_rate": 9.44952380952381e-06, "loss": 2.8105, "step": 5200 }, { "epoch": 1.3933333333333333, "grad_norm": 14.103132247924805, "learning_rate": 9.440000000000001e-06, "loss": 2.8064, "step": 5225 }, { "epoch": 1.4, "grad_norm": 13.434041976928711, "learning_rate": 9.430476190476192e-06, "loss": 2.7746, "step": 5250 }, { "epoch": 1.4066666666666667, "grad_norm": 15.419546127319336, "learning_rate": 9.420952380952382e-06, "loss": 2.7448, "step": 5275 }, { "epoch": 1.4133333333333333, "grad_norm": 14.799817085266113, "learning_rate": 9.411428571428573e-06, "loss": 2.8209, "step": 5300 }, { "epoch": 1.42, "grad_norm": 15.96500015258789, "learning_rate": 9.401904761904764e-06, "loss": 2.7693, "step": 5325 }, { "epoch": 1.4266666666666667, "grad_norm": 14.244733810424805, "learning_rate": 9.392380952380953e-06, "loss": 2.7807, "step": 5350 }, { "epoch": 1.4333333333333333, "grad_norm": 14.097121238708496, "learning_rate": 9.382857142857143e-06, "loss": 2.799, "step": 5375 }, { "epoch": 1.44, "grad_norm": 15.826663970947266, "learning_rate": 9.373333333333334e-06, "loss": 2.7235, "step": 5400 }, { "epoch": 1.4466666666666668, "grad_norm": 15.50417709350586, "learning_rate": 9.363809523809525e-06, "loss": 2.7936, "step": 5425 }, { "epoch": 1.4533333333333334, "grad_norm": 14.80951976776123, "learning_rate": 9.354285714285715e-06, "loss": 2.7389, "step": 5450 }, { "epoch": 1.46, "grad_norm": 13.6444673538208, "learning_rate": 9.344761904761906e-06, "loss": 2.7484, "step": 5475 }, { "epoch": 1.4666666666666668, "grad_norm": 14.21313762664795, "learning_rate": 9.335238095238097e-06, "loss": 2.7897, "step": 5500 }, { "epoch": 1.4733333333333334, "grad_norm": 14.89455509185791, "learning_rate": 9.325714285714287e-06, "loss": 2.7518, "step": 5525 }, { "epoch": 1.48, "grad_norm": 17.3238582611084, "learning_rate": 9.316190476190476e-06, "loss": 2.779, "step": 5550 }, { "epoch": 1.4866666666666668, "grad_norm": 14.989190101623535, "learning_rate": 9.306666666666667e-06, "loss": 2.7703, "step": 5575 }, { "epoch": 1.4933333333333334, "grad_norm": 15.849946022033691, "learning_rate": 9.297142857142857e-06, "loss": 2.7322, "step": 5600 }, { "epoch": 1.5, "grad_norm": 14.51784896850586, "learning_rate": 9.287619047619048e-06, "loss": 2.7088, "step": 5625 }, { "epoch": 1.5066666666666668, "grad_norm": 15.973024368286133, "learning_rate": 9.278095238095239e-06, "loss": 2.7918, "step": 5650 }, { "epoch": 1.5133333333333332, "grad_norm": 16.99101448059082, "learning_rate": 9.26857142857143e-06, "loss": 2.7436, "step": 5675 }, { "epoch": 1.52, "grad_norm": 14.216484069824219, "learning_rate": 9.25904761904762e-06, "loss": 2.8102, "step": 5700 }, { "epoch": 1.5266666666666666, "grad_norm": 14.659150123596191, "learning_rate": 9.24952380952381e-06, "loss": 2.7608, "step": 5725 }, { "epoch": 1.5333333333333332, "grad_norm": 14.899044036865234, "learning_rate": 9.240000000000001e-06, "loss": 2.712, "step": 5750 }, { "epoch": 1.54, "grad_norm": 14.659750938415527, "learning_rate": 9.23047619047619e-06, "loss": 2.7213, "step": 5775 }, { "epoch": 1.5466666666666666, "grad_norm": 14.379561424255371, "learning_rate": 9.220952380952381e-06, "loss": 2.7849, "step": 5800 }, { "epoch": 1.5533333333333332, "grad_norm": 14.050314903259277, "learning_rate": 9.211428571428572e-06, "loss": 2.7622, "step": 5825 }, { "epoch": 1.56, "grad_norm": 16.636693954467773, "learning_rate": 9.201904761904762e-06, "loss": 2.7469, "step": 5850 }, { "epoch": 1.5666666666666667, "grad_norm": 13.871174812316895, "learning_rate": 9.192380952380953e-06, "loss": 2.6704, "step": 5875 }, { "epoch": 1.5733333333333333, "grad_norm": 14.21449089050293, "learning_rate": 9.182857142857144e-06, "loss": 2.7424, "step": 5900 }, { "epoch": 1.58, "grad_norm": 14.149490356445312, "learning_rate": 9.173333333333334e-06, "loss": 2.7349, "step": 5925 }, { "epoch": 1.5866666666666667, "grad_norm": 14.836774826049805, "learning_rate": 9.163809523809525e-06, "loss": 2.6416, "step": 5950 }, { "epoch": 1.5933333333333333, "grad_norm": 14.48371410369873, "learning_rate": 9.154285714285715e-06, "loss": 2.6019, "step": 5975 }, { "epoch": 1.6, "grad_norm": 15.608654022216797, "learning_rate": 9.144761904761904e-06, "loss": 2.7364, "step": 6000 }, { "epoch": 1.6066666666666667, "grad_norm": 14.69936466217041, "learning_rate": 9.135238095238095e-06, "loss": 2.6936, "step": 6025 }, { "epoch": 1.6133333333333333, "grad_norm": 13.5380220413208, "learning_rate": 9.125714285714287e-06, "loss": 2.7094, "step": 6050 }, { "epoch": 1.62, "grad_norm": 14.698652267456055, "learning_rate": 9.116190476190478e-06, "loss": 2.6413, "step": 6075 }, { "epoch": 1.6266666666666667, "grad_norm": 15.261816024780273, "learning_rate": 9.106666666666667e-06, "loss": 2.671, "step": 6100 }, { "epoch": 1.6333333333333333, "grad_norm": 13.707727432250977, "learning_rate": 9.097142857142858e-06, "loss": 2.6781, "step": 6125 }, { "epoch": 1.6400000000000001, "grad_norm": 14.93627643585205, "learning_rate": 9.087619047619048e-06, "loss": 2.7021, "step": 6150 }, { "epoch": 1.6466666666666665, "grad_norm": 15.299666404724121, "learning_rate": 9.078095238095239e-06, "loss": 2.692, "step": 6175 }, { "epoch": 1.6533333333333333, "grad_norm": 14.237093925476074, "learning_rate": 9.06857142857143e-06, "loss": 2.6726, "step": 6200 }, { "epoch": 1.6600000000000001, "grad_norm": 12.627482414245605, "learning_rate": 9.05904761904762e-06, "loss": 2.6827, "step": 6225 }, { "epoch": 1.6666666666666665, "grad_norm": 16.218557357788086, "learning_rate": 9.049523809523811e-06, "loss": 2.6578, "step": 6250 }, { "epoch": 1.6733333333333333, "grad_norm": 17.332700729370117, "learning_rate": 9.040000000000002e-06, "loss": 2.6971, "step": 6275 }, { "epoch": 1.6800000000000002, "grad_norm": 17.00411605834961, "learning_rate": 9.030476190476192e-06, "loss": 2.6287, "step": 6300 }, { "epoch": 1.6866666666666665, "grad_norm": 14.15564250946045, "learning_rate": 9.020952380952381e-06, "loss": 2.6167, "step": 6325 }, { "epoch": 1.6933333333333334, "grad_norm": 14.249953269958496, "learning_rate": 9.011428571428572e-06, "loss": 2.6194, "step": 6350 }, { "epoch": 1.7, "grad_norm": 14.866204261779785, "learning_rate": 9.001904761904762e-06, "loss": 2.6009, "step": 6375 }, { "epoch": 1.7066666666666666, "grad_norm": 15.012754440307617, "learning_rate": 8.992380952380953e-06, "loss": 2.6565, "step": 6400 }, { "epoch": 1.7133333333333334, "grad_norm": 14.182652473449707, "learning_rate": 8.982857142857144e-06, "loss": 2.6427, "step": 6425 }, { "epoch": 1.72, "grad_norm": 15.1068754196167, "learning_rate": 8.973333333333334e-06, "loss": 2.6857, "step": 6450 }, { "epoch": 1.7266666666666666, "grad_norm": 14.61218547821045, "learning_rate": 8.963809523809525e-06, "loss": 2.6186, "step": 6475 }, { "epoch": 1.7333333333333334, "grad_norm": 13.691986083984375, "learning_rate": 8.954285714285716e-06, "loss": 2.625, "step": 6500 }, { "epoch": 1.74, "grad_norm": 14.470553398132324, "learning_rate": 8.944761904761905e-06, "loss": 2.607, "step": 6525 }, { "epoch": 1.7466666666666666, "grad_norm": 15.044175148010254, "learning_rate": 8.935238095238095e-06, "loss": 2.6301, "step": 6550 }, { "epoch": 1.7533333333333334, "grad_norm": 15.13331413269043, "learning_rate": 8.925714285714286e-06, "loss": 2.5585, "step": 6575 }, { "epoch": 1.76, "grad_norm": 14.388257026672363, "learning_rate": 8.916190476190477e-06, "loss": 2.5692, "step": 6600 }, { "epoch": 1.7666666666666666, "grad_norm": 14.71713638305664, "learning_rate": 8.906666666666667e-06, "loss": 2.5365, "step": 6625 }, { "epoch": 1.7733333333333334, "grad_norm": 17.06353187561035, "learning_rate": 8.897142857142858e-06, "loss": 2.5766, "step": 6650 }, { "epoch": 1.78, "grad_norm": 14.4035062789917, "learning_rate": 8.887619047619049e-06, "loss": 2.5648, "step": 6675 }, { "epoch": 1.7866666666666666, "grad_norm": 14.427108764648438, "learning_rate": 8.87809523809524e-06, "loss": 2.5672, "step": 6700 }, { "epoch": 1.7933333333333334, "grad_norm": 14.118147850036621, "learning_rate": 8.868952380952382e-06, "loss": 2.5276, "step": 6725 }, { "epoch": 1.8, "grad_norm": 15.688841819763184, "learning_rate": 8.859428571428572e-06, "loss": 2.5164, "step": 6750 }, { "epoch": 1.8066666666666666, "grad_norm": 18.347806930541992, "learning_rate": 8.849904761904763e-06, "loss": 2.4147, "step": 6775 }, { "epoch": 1.8133333333333335, "grad_norm": 16.04796600341797, "learning_rate": 8.840380952380954e-06, "loss": 2.5083, "step": 6800 }, { "epoch": 1.8199999999999998, "grad_norm": 19.085845947265625, "learning_rate": 8.830857142857142e-06, "loss": 2.4103, "step": 6825 }, { "epoch": 1.8266666666666667, "grad_norm": 19.060869216918945, "learning_rate": 8.821333333333333e-06, "loss": 2.3765, "step": 6850 }, { "epoch": 1.8333333333333335, "grad_norm": 18.649227142333984, "learning_rate": 8.811809523809525e-06, "loss": 2.3365, "step": 6875 }, { "epoch": 1.8399999999999999, "grad_norm": 19.307249069213867, "learning_rate": 8.802285714285716e-06, "loss": 2.2754, "step": 6900 }, { "epoch": 1.8466666666666667, "grad_norm": 18.80150032043457, "learning_rate": 8.792761904761905e-06, "loss": 2.1893, "step": 6925 }, { "epoch": 1.8533333333333335, "grad_norm": 15.923835754394531, "learning_rate": 8.783238095238096e-06, "loss": 2.1479, "step": 6950 }, { "epoch": 1.8599999999999999, "grad_norm": 20.088363647460938, "learning_rate": 8.773714285714286e-06, "loss": 1.9981, "step": 6975 }, { "epoch": 1.8666666666666667, "grad_norm": 17.644895553588867, "learning_rate": 8.764190476190477e-06, "loss": 1.9975, "step": 7000 }, { "epoch": 1.8733333333333333, "grad_norm": 17.945077896118164, "learning_rate": 8.754666666666668e-06, "loss": 1.9565, "step": 7025 }, { "epoch": 1.88, "grad_norm": 18.70116424560547, "learning_rate": 8.745142857142858e-06, "loss": 1.9035, "step": 7050 }, { "epoch": 1.8866666666666667, "grad_norm": 16.990633010864258, "learning_rate": 8.735619047619049e-06, "loss": 1.9186, "step": 7075 }, { "epoch": 1.8933333333333333, "grad_norm": 19.515708923339844, "learning_rate": 8.72609523809524e-06, "loss": 1.8356, "step": 7100 }, { "epoch": 1.9, "grad_norm": 15.197541236877441, "learning_rate": 8.71657142857143e-06, "loss": 1.7636, "step": 7125 }, { "epoch": 1.9066666666666667, "grad_norm": 17.862497329711914, "learning_rate": 8.70704761904762e-06, "loss": 1.8242, "step": 7150 }, { "epoch": 1.9133333333333333, "grad_norm": 16.616090774536133, "learning_rate": 8.69752380952381e-06, "loss": 1.7505, "step": 7175 }, { "epoch": 1.92, "grad_norm": 20.11393928527832, "learning_rate": 8.688e-06, "loss": 1.7244, "step": 7200 }, { "epoch": 1.9266666666666667, "grad_norm": 17.111398696899414, "learning_rate": 8.678476190476191e-06, "loss": 1.6853, "step": 7225 }, { "epoch": 1.9333333333333333, "grad_norm": 17.926048278808594, "learning_rate": 8.668952380952382e-06, "loss": 1.7018, "step": 7250 }, { "epoch": 1.94, "grad_norm": 15.90676498413086, "learning_rate": 8.659428571428572e-06, "loss": 1.647, "step": 7275 }, { "epoch": 1.9466666666666668, "grad_norm": 15.820452690124512, "learning_rate": 8.649904761904763e-06, "loss": 1.6277, "step": 7300 }, { "epoch": 1.9533333333333334, "grad_norm": 16.22798728942871, "learning_rate": 8.640380952380954e-06, "loss": 1.5601, "step": 7325 }, { "epoch": 1.96, "grad_norm": 14.369165420532227, "learning_rate": 8.630857142857143e-06, "loss": 1.5992, "step": 7350 }, { "epoch": 1.9666666666666668, "grad_norm": 18.77249526977539, "learning_rate": 8.621333333333333e-06, "loss": 1.5753, "step": 7375 }, { "epoch": 1.9733333333333334, "grad_norm": 16.52621078491211, "learning_rate": 8.611809523809524e-06, "loss": 1.5257, "step": 7400 }, { "epoch": 1.98, "grad_norm": 16.672527313232422, "learning_rate": 8.602285714285715e-06, "loss": 1.4771, "step": 7425 }, { "epoch": 1.9866666666666668, "grad_norm": 17.824262619018555, "learning_rate": 8.592761904761905e-06, "loss": 1.4627, "step": 7450 }, { "epoch": 1.9933333333333332, "grad_norm": 17.595306396484375, "learning_rate": 8.583238095238096e-06, "loss": 1.4921, "step": 7475 }, { "epoch": 2.0, "grad_norm": 18.10123062133789, "learning_rate": 8.573714285714287e-06, "loss": 1.4576, "step": 7500 }, { "epoch": 2.0, "eval_cer": 77.25061960755083, "eval_loss": 1.4401075839996338, "eval_runtime": 1582.7576, "eval_samples_per_second": 3.159, "eval_steps_per_second": 0.395, "step": 7500 }, { "epoch": 2.006666666666667, "grad_norm": 17.691944122314453, "learning_rate": 8.564190476190477e-06, "loss": 1.3915, "step": 7525 }, { "epoch": 2.013333333333333, "grad_norm": 15.628355979919434, "learning_rate": 8.554666666666668e-06, "loss": 1.2973, "step": 7550 }, { "epoch": 2.02, "grad_norm": 14.973496437072754, "learning_rate": 8.545142857142857e-06, "loss": 1.2674, "step": 7575 }, { "epoch": 2.026666666666667, "grad_norm": 15.208847999572754, "learning_rate": 8.535619047619047e-06, "loss": 1.2556, "step": 7600 }, { "epoch": 2.033333333333333, "grad_norm": 15.022250175476074, "learning_rate": 8.526095238095238e-06, "loss": 1.2618, "step": 7625 }, { "epoch": 2.04, "grad_norm": 17.62943458557129, "learning_rate": 8.516571428571429e-06, "loss": 1.1994, "step": 7650 }, { "epoch": 2.046666666666667, "grad_norm": 16.278724670410156, "learning_rate": 8.50704761904762e-06, "loss": 1.2841, "step": 7675 }, { "epoch": 2.0533333333333332, "grad_norm": 15.524023056030273, "learning_rate": 8.49752380952381e-06, "loss": 1.2672, "step": 7700 }, { "epoch": 2.06, "grad_norm": 17.87444305419922, "learning_rate": 8.488e-06, "loss": 1.2355, "step": 7725 }, { "epoch": 2.066666666666667, "grad_norm": 15.757577896118164, "learning_rate": 8.478476190476191e-06, "loss": 1.2383, "step": 7750 }, { "epoch": 2.0733333333333333, "grad_norm": 17.245359420776367, "learning_rate": 8.468952380952382e-06, "loss": 1.2193, "step": 7775 }, { "epoch": 2.08, "grad_norm": 14.14932632446289, "learning_rate": 8.459428571428571e-06, "loss": 1.2343, "step": 7800 }, { "epoch": 2.086666666666667, "grad_norm": 15.07763671875, "learning_rate": 8.449904761904763e-06, "loss": 1.2037, "step": 7825 }, { "epoch": 2.0933333333333333, "grad_norm": 17.19536590576172, "learning_rate": 8.440380952380954e-06, "loss": 1.1922, "step": 7850 }, { "epoch": 2.1, "grad_norm": 15.821720123291016, "learning_rate": 8.430857142857145e-06, "loss": 1.1624, "step": 7875 }, { "epoch": 2.1066666666666665, "grad_norm": 14.394135475158691, "learning_rate": 8.421333333333334e-06, "loss": 1.2025, "step": 7900 }, { "epoch": 2.1133333333333333, "grad_norm": 17.62851905822754, "learning_rate": 8.411809523809524e-06, "loss": 1.1474, "step": 7925 }, { "epoch": 2.12, "grad_norm": 15.903640747070312, "learning_rate": 8.402285714285715e-06, "loss": 1.2032, "step": 7950 }, { "epoch": 2.1266666666666665, "grad_norm": 18.032054901123047, "learning_rate": 8.392761904761906e-06, "loss": 1.1587, "step": 7975 }, { "epoch": 2.1333333333333333, "grad_norm": 14.90749740600586, "learning_rate": 8.383238095238096e-06, "loss": 1.1431, "step": 8000 }, { "epoch": 2.14, "grad_norm": 16.577280044555664, "learning_rate": 8.373714285714287e-06, "loss": 1.1269, "step": 8025 }, { "epoch": 2.1466666666666665, "grad_norm": 14.388623237609863, "learning_rate": 8.364190476190477e-06, "loss": 1.1503, "step": 8050 }, { "epoch": 2.1533333333333333, "grad_norm": 15.55774974822998, "learning_rate": 8.354666666666668e-06, "loss": 1.1411, "step": 8075 }, { "epoch": 2.16, "grad_norm": 14.740797996520996, "learning_rate": 8.345142857142859e-06, "loss": 1.1325, "step": 8100 }, { "epoch": 2.1666666666666665, "grad_norm": 14.197571754455566, "learning_rate": 8.335619047619048e-06, "loss": 1.1376, "step": 8125 }, { "epoch": 2.1733333333333333, "grad_norm": 13.964593887329102, "learning_rate": 8.326095238095238e-06, "loss": 1.0756, "step": 8150 }, { "epoch": 2.18, "grad_norm": 16.49044418334961, "learning_rate": 8.316571428571429e-06, "loss": 1.0911, "step": 8175 }, { "epoch": 2.1866666666666665, "grad_norm": 14.902190208435059, "learning_rate": 8.30704761904762e-06, "loss": 1.0751, "step": 8200 }, { "epoch": 2.1933333333333334, "grad_norm": 15.35083293914795, "learning_rate": 8.29752380952381e-06, "loss": 1.093, "step": 8225 }, { "epoch": 2.2, "grad_norm": 15.847153663635254, "learning_rate": 8.288000000000001e-06, "loss": 1.0695, "step": 8250 }, { "epoch": 2.2066666666666666, "grad_norm": 14.268363952636719, "learning_rate": 8.278476190476192e-06, "loss": 1.0463, "step": 8275 }, { "epoch": 2.2133333333333334, "grad_norm": 18.531755447387695, "learning_rate": 8.268952380952382e-06, "loss": 1.0273, "step": 8300 }, { "epoch": 2.22, "grad_norm": 16.245264053344727, "learning_rate": 8.259428571428571e-06, "loss": 1.0602, "step": 8325 }, { "epoch": 2.2266666666666666, "grad_norm": 14.464414596557617, "learning_rate": 8.249904761904762e-06, "loss": 1.0593, "step": 8350 }, { "epoch": 2.2333333333333334, "grad_norm": 13.870346069335938, "learning_rate": 8.240380952380952e-06, "loss": 1.0528, "step": 8375 }, { "epoch": 2.24, "grad_norm": 15.663500785827637, "learning_rate": 8.230857142857143e-06, "loss": 1.029, "step": 8400 }, { "epoch": 2.2466666666666666, "grad_norm": 14.84670639038086, "learning_rate": 8.221333333333334e-06, "loss": 1.0156, "step": 8425 }, { "epoch": 2.2533333333333334, "grad_norm": 19.283897399902344, "learning_rate": 8.211809523809524e-06, "loss": 0.9791, "step": 8450 }, { "epoch": 2.26, "grad_norm": 16.611352920532227, "learning_rate": 8.202285714285715e-06, "loss": 1.0512, "step": 8475 }, { "epoch": 2.2666666666666666, "grad_norm": 17.918018341064453, "learning_rate": 8.192761904761906e-06, "loss": 0.9462, "step": 8500 }, { "epoch": 2.2733333333333334, "grad_norm": 13.081274032592773, "learning_rate": 8.183238095238096e-06, "loss": 1.0184, "step": 8525 }, { "epoch": 2.2800000000000002, "grad_norm": 19.9842586517334, "learning_rate": 8.173714285714285e-06, "loss": 0.957, "step": 8550 }, { "epoch": 2.2866666666666666, "grad_norm": 20.75297737121582, "learning_rate": 8.164190476190476e-06, "loss": 1.0061, "step": 8575 }, { "epoch": 2.2933333333333334, "grad_norm": 13.504301071166992, "learning_rate": 8.154666666666667e-06, "loss": 0.979, "step": 8600 }, { "epoch": 2.3, "grad_norm": 19.980545043945312, "learning_rate": 8.145142857142859e-06, "loss": 0.9942, "step": 8625 }, { "epoch": 2.3066666666666666, "grad_norm": 13.34810733795166, "learning_rate": 8.135619047619048e-06, "loss": 0.9727, "step": 8650 }, { "epoch": 2.3133333333333335, "grad_norm": 17.222763061523438, "learning_rate": 8.126095238095239e-06, "loss": 0.9635, "step": 8675 }, { "epoch": 2.32, "grad_norm": 15.630841255187988, "learning_rate": 8.11657142857143e-06, "loss": 0.9656, "step": 8700 }, { "epoch": 2.3266666666666667, "grad_norm": 17.946897506713867, "learning_rate": 8.10704761904762e-06, "loss": 0.9959, "step": 8725 }, { "epoch": 2.3333333333333335, "grad_norm": 14.038722038269043, "learning_rate": 8.09752380952381e-06, "loss": 0.9575, "step": 8750 }, { "epoch": 2.34, "grad_norm": 15.576416969299316, "learning_rate": 8.088e-06, "loss": 0.9647, "step": 8775 }, { "epoch": 2.3466666666666667, "grad_norm": 15.203240394592285, "learning_rate": 8.078476190476192e-06, "loss": 0.9534, "step": 8800 }, { "epoch": 2.3533333333333335, "grad_norm": 13.264368057250977, "learning_rate": 8.068952380952382e-06, "loss": 0.9086, "step": 8825 }, { "epoch": 2.36, "grad_norm": 13.296425819396973, "learning_rate": 8.059428571428573e-06, "loss": 0.9556, "step": 8850 }, { "epoch": 2.3666666666666667, "grad_norm": 16.57670783996582, "learning_rate": 8.049904761904762e-06, "loss": 0.8771, "step": 8875 }, { "epoch": 2.3733333333333335, "grad_norm": 13.58024787902832, "learning_rate": 8.040380952380953e-06, "loss": 0.9227, "step": 8900 }, { "epoch": 2.38, "grad_norm": 12.743315696716309, "learning_rate": 8.030857142857143e-06, "loss": 0.8987, "step": 8925 }, { "epoch": 2.3866666666666667, "grad_norm": 13.164562225341797, "learning_rate": 8.021333333333334e-06, "loss": 0.9077, "step": 8950 }, { "epoch": 2.3933333333333335, "grad_norm": 14.694445610046387, "learning_rate": 8.011809523809525e-06, "loss": 0.8524, "step": 8975 }, { "epoch": 2.4, "grad_norm": 12.456698417663574, "learning_rate": 8.002285714285715e-06, "loss": 0.9344, "step": 9000 }, { "epoch": 2.4066666666666667, "grad_norm": 14.935453414916992, "learning_rate": 7.992761904761906e-06, "loss": 0.8804, "step": 9025 }, { "epoch": 2.413333333333333, "grad_norm": 15.14492416381836, "learning_rate": 7.983238095238097e-06, "loss": 0.9141, "step": 9050 }, { "epoch": 2.42, "grad_norm": 13.008796691894531, "learning_rate": 7.973714285714287e-06, "loss": 0.8574, "step": 9075 }, { "epoch": 2.4266666666666667, "grad_norm": 15.723875999450684, "learning_rate": 7.964190476190476e-06, "loss": 0.9275, "step": 9100 }, { "epoch": 2.4333333333333336, "grad_norm": 14.741941452026367, "learning_rate": 7.954666666666667e-06, "loss": 0.8772, "step": 9125 }, { "epoch": 2.44, "grad_norm": 14.016633987426758, "learning_rate": 7.945142857142857e-06, "loss": 0.8786, "step": 9150 }, { "epoch": 2.4466666666666668, "grad_norm": 14.037002563476562, "learning_rate": 7.935619047619048e-06, "loss": 0.8886, "step": 9175 }, { "epoch": 2.453333333333333, "grad_norm": 13.406916618347168, "learning_rate": 7.926095238095239e-06, "loss": 0.8804, "step": 9200 }, { "epoch": 2.46, "grad_norm": 15.21426773071289, "learning_rate": 7.91657142857143e-06, "loss": 0.9166, "step": 9225 }, { "epoch": 2.466666666666667, "grad_norm": 12.367789268493652, "learning_rate": 7.90704761904762e-06, "loss": 0.8878, "step": 9250 }, { "epoch": 2.473333333333333, "grad_norm": 12.16779899597168, "learning_rate": 7.89752380952381e-06, "loss": 0.9108, "step": 9275 }, { "epoch": 2.48, "grad_norm": 14.652085304260254, "learning_rate": 7.888e-06, "loss": 0.9124, "step": 9300 }, { "epoch": 2.486666666666667, "grad_norm": 14.428335189819336, "learning_rate": 7.87847619047619e-06, "loss": 0.8528, "step": 9325 }, { "epoch": 2.493333333333333, "grad_norm": 11.541536331176758, "learning_rate": 7.868952380952381e-06, "loss": 0.8102, "step": 9350 }, { "epoch": 2.5, "grad_norm": 15.364234924316406, "learning_rate": 7.859428571428572e-06, "loss": 0.8763, "step": 9375 }, { "epoch": 2.506666666666667, "grad_norm": 12.438647270202637, "learning_rate": 7.849904761904762e-06, "loss": 0.7901, "step": 9400 }, { "epoch": 2.513333333333333, "grad_norm": 14.445097923278809, "learning_rate": 7.840380952380953e-06, "loss": 0.8655, "step": 9425 }, { "epoch": 2.52, "grad_norm": 13.237053871154785, "learning_rate": 7.830857142857144e-06, "loss": 0.7989, "step": 9450 }, { "epoch": 2.5266666666666664, "grad_norm": 11.769380569458008, "learning_rate": 7.821333333333334e-06, "loss": 0.8069, "step": 9475 }, { "epoch": 2.533333333333333, "grad_norm": 12.18676471710205, "learning_rate": 7.811809523809525e-06, "loss": 0.8503, "step": 9500 }, { "epoch": 2.54, "grad_norm": 12.458505630493164, "learning_rate": 7.802285714285714e-06, "loss": 0.7827, "step": 9525 }, { "epoch": 2.546666666666667, "grad_norm": 16.238052368164062, "learning_rate": 7.792761904761904e-06, "loss": 0.8206, "step": 9550 }, { "epoch": 2.5533333333333332, "grad_norm": 15.91323471069336, "learning_rate": 7.783238095238095e-06, "loss": 0.8139, "step": 9575 }, { "epoch": 2.56, "grad_norm": 17.46051597595215, "learning_rate": 7.773714285714287e-06, "loss": 0.8258, "step": 9600 }, { "epoch": 2.5666666666666664, "grad_norm": 12.314743995666504, "learning_rate": 7.764190476190476e-06, "loss": 0.8687, "step": 9625 }, { "epoch": 2.5733333333333333, "grad_norm": 13.517231941223145, "learning_rate": 7.754666666666667e-06, "loss": 0.8668, "step": 9650 }, { "epoch": 2.58, "grad_norm": 12.734359741210938, "learning_rate": 7.745142857142858e-06, "loss": 0.8369, "step": 9675 }, { "epoch": 2.586666666666667, "grad_norm": 13.899070739746094, "learning_rate": 7.735619047619048e-06, "loss": 0.791, "step": 9700 }, { "epoch": 2.5933333333333333, "grad_norm": 17.241207122802734, "learning_rate": 7.726095238095239e-06, "loss": 0.843, "step": 9725 }, { "epoch": 2.6, "grad_norm": 12.999462127685547, "learning_rate": 7.71657142857143e-06, "loss": 0.8105, "step": 9750 }, { "epoch": 2.6066666666666665, "grad_norm": 14.407151222229004, "learning_rate": 7.70704761904762e-06, "loss": 0.8319, "step": 9775 }, { "epoch": 2.6133333333333333, "grad_norm": 13.291029930114746, "learning_rate": 7.697523809523811e-06, "loss": 0.8165, "step": 9800 }, { "epoch": 2.62, "grad_norm": 14.562243461608887, "learning_rate": 7.688000000000002e-06, "loss": 0.8193, "step": 9825 }, { "epoch": 2.626666666666667, "grad_norm": 13.287637710571289, "learning_rate": 7.67847619047619e-06, "loss": 0.7602, "step": 9850 }, { "epoch": 2.6333333333333333, "grad_norm": 18.668542861938477, "learning_rate": 7.668952380952381e-06, "loss": 0.7709, "step": 9875 }, { "epoch": 2.64, "grad_norm": 24.925283432006836, "learning_rate": 7.659428571428572e-06, "loss": 0.7766, "step": 9900 }, { "epoch": 2.6466666666666665, "grad_norm": 13.793021202087402, "learning_rate": 7.649904761904763e-06, "loss": 0.8239, "step": 9925 }, { "epoch": 2.6533333333333333, "grad_norm": 15.205828666687012, "learning_rate": 7.640380952380953e-06, "loss": 0.8012, "step": 9950 }, { "epoch": 2.66, "grad_norm": 12.667387962341309, "learning_rate": 7.630857142857144e-06, "loss": 0.7783, "step": 9975 }, { "epoch": 2.6666666666666665, "grad_norm": 13.629653930664062, "learning_rate": 7.621333333333334e-06, "loss": 0.7314, "step": 10000 }, { "epoch": 2.6733333333333333, "grad_norm": 17.123104095458984, "learning_rate": 7.611809523809524e-06, "loss": 0.7819, "step": 10025 }, { "epoch": 2.68, "grad_norm": 12.906121253967285, "learning_rate": 7.602285714285716e-06, "loss": 0.7468, "step": 10050 }, { "epoch": 2.6866666666666665, "grad_norm": 13.235093116760254, "learning_rate": 7.592761904761905e-06, "loss": 0.7699, "step": 10075 }, { "epoch": 2.6933333333333334, "grad_norm": 11.834189414978027, "learning_rate": 7.583238095238095e-06, "loss": 0.7911, "step": 10100 }, { "epoch": 2.7, "grad_norm": 19.789661407470703, "learning_rate": 7.573714285714287e-06, "loss": 0.804, "step": 10125 }, { "epoch": 2.7066666666666666, "grad_norm": 12.802104949951172, "learning_rate": 7.5641904761904775e-06, "loss": 0.7851, "step": 10150 }, { "epoch": 2.7133333333333334, "grad_norm": 16.475448608398438, "learning_rate": 7.5546666666666664e-06, "loss": 0.7799, "step": 10175 }, { "epoch": 2.7199999999999998, "grad_norm": 13.332880973815918, "learning_rate": 7.545142857142858e-06, "loss": 0.7539, "step": 10200 }, { "epoch": 2.7266666666666666, "grad_norm": 15.36143970489502, "learning_rate": 7.535619047619049e-06, "loss": 0.7499, "step": 10225 }, { "epoch": 2.7333333333333334, "grad_norm": 11.760819435119629, "learning_rate": 7.526095238095239e-06, "loss": 0.7629, "step": 10250 }, { "epoch": 2.74, "grad_norm": 13.698845863342285, "learning_rate": 7.51657142857143e-06, "loss": 0.7286, "step": 10275 }, { "epoch": 2.7466666666666666, "grad_norm": 11.341647148132324, "learning_rate": 7.50704761904762e-06, "loss": 0.7394, "step": 10300 }, { "epoch": 2.7533333333333334, "grad_norm": 15.082664489746094, "learning_rate": 7.49752380952381e-06, "loss": 0.7425, "step": 10325 }, { "epoch": 2.76, "grad_norm": 14.36082935333252, "learning_rate": 7.488000000000001e-06, "loss": 0.7737, "step": 10350 }, { "epoch": 2.7666666666666666, "grad_norm": 13.915414810180664, "learning_rate": 7.478476190476192e-06, "loss": 0.7088, "step": 10375 }, { "epoch": 2.7733333333333334, "grad_norm": 21.420503616333008, "learning_rate": 7.4689523809523814e-06, "loss": 0.7257, "step": 10400 }, { "epoch": 2.7800000000000002, "grad_norm": 12.983577728271484, "learning_rate": 7.459428571428572e-06, "loss": 0.772, "step": 10425 }, { "epoch": 2.7866666666666666, "grad_norm": 12.187981605529785, "learning_rate": 7.449904761904763e-06, "loss": 0.7646, "step": 10450 }, { "epoch": 2.7933333333333334, "grad_norm": 13.272187232971191, "learning_rate": 7.440380952380953e-06, "loss": 0.6983, "step": 10475 }, { "epoch": 2.8, "grad_norm": 15.614982604980469, "learning_rate": 7.430857142857143e-06, "loss": 0.7318, "step": 10500 }, { "epoch": 2.8066666666666666, "grad_norm": 12.032373428344727, "learning_rate": 7.421333333333334e-06, "loss": 0.7493, "step": 10525 }, { "epoch": 2.8133333333333335, "grad_norm": 13.566765785217285, "learning_rate": 7.4118095238095245e-06, "loss": 0.7182, "step": 10550 }, { "epoch": 2.82, "grad_norm": 13.412989616394043, "learning_rate": 7.402285714285715e-06, "loss": 0.7409, "step": 10575 }, { "epoch": 2.8266666666666667, "grad_norm": 12.257537841796875, "learning_rate": 7.392761904761906e-06, "loss": 0.65, "step": 10600 }, { "epoch": 2.8333333333333335, "grad_norm": 11.037557601928711, "learning_rate": 7.3832380952380956e-06, "loss": 0.6838, "step": 10625 }, { "epoch": 2.84, "grad_norm": 12.700743675231934, "learning_rate": 7.373714285714286e-06, "loss": 0.7299, "step": 10650 }, { "epoch": 2.8466666666666667, "grad_norm": 11.849905014038086, "learning_rate": 7.364190476190477e-06, "loss": 0.6972, "step": 10675 }, { "epoch": 2.8533333333333335, "grad_norm": 12.316579818725586, "learning_rate": 7.3546666666666675e-06, "loss": 0.6959, "step": 10700 }, { "epoch": 2.86, "grad_norm": 11.666390419006348, "learning_rate": 7.345142857142857e-06, "loss": 0.6782, "step": 10725 }, { "epoch": 2.8666666666666667, "grad_norm": 11.588486671447754, "learning_rate": 7.335619047619048e-06, "loss": 0.7274, "step": 10750 }, { "epoch": 2.873333333333333, "grad_norm": 11.509440422058105, "learning_rate": 7.326095238095239e-06, "loss": 0.705, "step": 10775 }, { "epoch": 2.88, "grad_norm": 13.363165855407715, "learning_rate": 7.316571428571429e-06, "loss": 0.6828, "step": 10800 }, { "epoch": 2.8866666666666667, "grad_norm": 13.233067512512207, "learning_rate": 7.307047619047619e-06, "loss": 0.7074, "step": 10825 }, { "epoch": 2.8933333333333335, "grad_norm": 14.916755676269531, "learning_rate": 7.29752380952381e-06, "loss": 0.6718, "step": 10850 }, { "epoch": 2.9, "grad_norm": 12.152311325073242, "learning_rate": 7.288e-06, "loss": 0.6918, "step": 10875 }, { "epoch": 2.9066666666666667, "grad_norm": 12.32666015625, "learning_rate": 7.278476190476191e-06, "loss": 0.7233, "step": 10900 }, { "epoch": 2.913333333333333, "grad_norm": 15.771453857421875, "learning_rate": 7.2689523809523825e-06, "loss": 0.7254, "step": 10925 }, { "epoch": 2.92, "grad_norm": 12.090583801269531, "learning_rate": 7.2594285714285715e-06, "loss": 0.6638, "step": 10950 }, { "epoch": 2.9266666666666667, "grad_norm": 18.94734764099121, "learning_rate": 7.249904761904762e-06, "loss": 0.7147, "step": 10975 }, { "epoch": 2.9333333333333336, "grad_norm": 12.012685775756836, "learning_rate": 7.240380952380954e-06, "loss": 0.7132, "step": 11000 }, { "epoch": 2.94, "grad_norm": 13.321370124816895, "learning_rate": 7.230857142857144e-06, "loss": 0.68, "step": 11025 }, { "epoch": 2.9466666666666668, "grad_norm": 11.78201961517334, "learning_rate": 7.221333333333333e-06, "loss": 0.6658, "step": 11050 }, { "epoch": 2.953333333333333, "grad_norm": 15.553313255310059, "learning_rate": 7.211809523809524e-06, "loss": 0.6835, "step": 11075 }, { "epoch": 2.96, "grad_norm": 16.923349380493164, "learning_rate": 7.202285714285715e-06, "loss": 0.6997, "step": 11100 }, { "epoch": 2.966666666666667, "grad_norm": 13.022631645202637, "learning_rate": 7.192761904761906e-06, "loss": 0.6964, "step": 11125 }, { "epoch": 2.9733333333333336, "grad_norm": 12.87855339050293, "learning_rate": 7.183238095238095e-06, "loss": 0.6486, "step": 11150 }, { "epoch": 2.98, "grad_norm": 11.729864120483398, "learning_rate": 7.1737142857142864e-06, "loss": 0.6926, "step": 11175 }, { "epoch": 2.986666666666667, "grad_norm": 12.386777877807617, "learning_rate": 7.164190476190477e-06, "loss": 0.6695, "step": 11200 }, { "epoch": 2.993333333333333, "grad_norm": 11.483463287353516, "learning_rate": 7.154666666666668e-06, "loss": 0.7088, "step": 11225 }, { "epoch": 3.0, "grad_norm": 15.610902786254883, "learning_rate": 7.145142857142858e-06, "loss": 0.6726, "step": 11250 }, { "epoch": 3.0, "eval_cer": 41.702849262993126, "eval_loss": 0.7098944187164307, "eval_runtime": 1390.6389, "eval_samples_per_second": 3.595, "eval_steps_per_second": 0.449, "step": 11250 }, { "epoch": 3.006666666666667, "grad_norm": 12.320043563842773, "learning_rate": 7.135619047619048e-06, "loss": 0.5395, "step": 11275 }, { "epoch": 3.013333333333333, "grad_norm": 11.117510795593262, "learning_rate": 7.126095238095239e-06, "loss": 0.5347, "step": 11300 }, { "epoch": 3.02, "grad_norm": 12.490753173828125, "learning_rate": 7.1165714285714295e-06, "loss": 0.5599, "step": 11325 }, { "epoch": 3.026666666666667, "grad_norm": 13.338621139526367, "learning_rate": 7.10704761904762e-06, "loss": 0.5271, "step": 11350 }, { "epoch": 3.033333333333333, "grad_norm": 15.237607955932617, "learning_rate": 7.09752380952381e-06, "loss": 0.5054, "step": 11375 }, { "epoch": 3.04, "grad_norm": 12.156538963317871, "learning_rate": 7.088000000000001e-06, "loss": 0.5423, "step": 11400 }, { "epoch": 3.046666666666667, "grad_norm": 13.343271255493164, "learning_rate": 7.078476190476191e-06, "loss": 0.5378, "step": 11425 }, { "epoch": 3.0533333333333332, "grad_norm": 9.944268226623535, "learning_rate": 7.068952380952382e-06, "loss": 0.5573, "step": 11450 }, { "epoch": 3.06, "grad_norm": 12.732002258300781, "learning_rate": 7.059428571428572e-06, "loss": 0.5176, "step": 11475 }, { "epoch": 3.066666666666667, "grad_norm": 12.2512788772583, "learning_rate": 7.049904761904762e-06, "loss": 0.5435, "step": 11500 }, { "epoch": 3.0733333333333333, "grad_norm": 12.14043140411377, "learning_rate": 7.040380952380953e-06, "loss": 0.5451, "step": 11525 }, { "epoch": 3.08, "grad_norm": 18.422739028930664, "learning_rate": 7.030857142857144e-06, "loss": 0.5408, "step": 11550 }, { "epoch": 3.086666666666667, "grad_norm": 11.657247543334961, "learning_rate": 7.021333333333334e-06, "loss": 0.5365, "step": 11575 }, { "epoch": 3.0933333333333333, "grad_norm": 14.991507530212402, "learning_rate": 7.011809523809524e-06, "loss": 0.5504, "step": 11600 }, { "epoch": 3.1, "grad_norm": 11.91079044342041, "learning_rate": 7.002285714285715e-06, "loss": 0.522, "step": 11625 }, { "epoch": 3.1066666666666665, "grad_norm": 13.186100006103516, "learning_rate": 6.992761904761905e-06, "loss": 0.5265, "step": 11650 }, { "epoch": 3.1133333333333333, "grad_norm": 16.277942657470703, "learning_rate": 6.983238095238096e-06, "loss": 0.5136, "step": 11675 }, { "epoch": 3.12, "grad_norm": 15.65561294555664, "learning_rate": 6.973714285714286e-06, "loss": 0.5462, "step": 11700 }, { "epoch": 3.1266666666666665, "grad_norm": 11.522254943847656, "learning_rate": 6.9641904761904765e-06, "loss": 0.5474, "step": 11725 }, { "epoch": 3.1333333333333333, "grad_norm": 9.075798988342285, "learning_rate": 6.954666666666667e-06, "loss": 0.4997, "step": 11750 }, { "epoch": 3.14, "grad_norm": 12.366820335388184, "learning_rate": 6.945142857142858e-06, "loss": 0.5018, "step": 11775 }, { "epoch": 3.1466666666666665, "grad_norm": 10.203408241271973, "learning_rate": 6.9356190476190476e-06, "loss": 0.5015, "step": 11800 }, { "epoch": 3.1533333333333333, "grad_norm": 9.678455352783203, "learning_rate": 6.926095238095238e-06, "loss": 0.5178, "step": 11825 }, { "epoch": 3.16, "grad_norm": 11.385818481445312, "learning_rate": 6.916571428571429e-06, "loss": 0.5313, "step": 11850 }, { "epoch": 3.1666666666666665, "grad_norm": 10.207921028137207, "learning_rate": 6.9070476190476195e-06, "loss": 0.5315, "step": 11875 }, { "epoch": 3.1733333333333333, "grad_norm": 10.841058731079102, "learning_rate": 6.897523809523811e-06, "loss": 0.504, "step": 11900 }, { "epoch": 3.18, "grad_norm": 11.898822784423828, "learning_rate": 6.888e-06, "loss": 0.5085, "step": 11925 }, { "epoch": 3.1866666666666665, "grad_norm": 14.291952133178711, "learning_rate": 6.878476190476191e-06, "loss": 0.5211, "step": 11950 }, { "epoch": 3.1933333333333334, "grad_norm": 12.969642639160156, "learning_rate": 6.868952380952382e-06, "loss": 0.5136, "step": 11975 }, { "epoch": 3.2, "grad_norm": 11.752336502075195, "learning_rate": 6.859428571428573e-06, "loss": 0.5249, "step": 12000 }, { "epoch": 3.2066666666666666, "grad_norm": 10.421284675598145, "learning_rate": 6.849904761904762e-06, "loss": 0.5, "step": 12025 }, { "epoch": 3.2133333333333334, "grad_norm": 11.189743041992188, "learning_rate": 6.840380952380953e-06, "loss": 0.502, "step": 12050 }, { "epoch": 3.22, "grad_norm": 12.347862243652344, "learning_rate": 6.830857142857144e-06, "loss": 0.5391, "step": 12075 }, { "epoch": 3.2266666666666666, "grad_norm": 11.286232948303223, "learning_rate": 6.8213333333333345e-06, "loss": 0.4985, "step": 12100 }, { "epoch": 3.2333333333333334, "grad_norm": 10.783979415893555, "learning_rate": 6.811809523809524e-06, "loss": 0.5245, "step": 12125 }, { "epoch": 3.24, "grad_norm": 11.302896499633789, "learning_rate": 6.802285714285715e-06, "loss": 0.5147, "step": 12150 }, { "epoch": 3.2466666666666666, "grad_norm": 9.619189262390137, "learning_rate": 6.792761904761906e-06, "loss": 0.5048, "step": 12175 }, { "epoch": 3.2533333333333334, "grad_norm": 12.480401039123535, "learning_rate": 6.783238095238096e-06, "loss": 0.5002, "step": 12200 }, { "epoch": 3.26, "grad_norm": 12.446605682373047, "learning_rate": 6.773714285714287e-06, "loss": 0.5056, "step": 12225 }, { "epoch": 3.2666666666666666, "grad_norm": 8.961690902709961, "learning_rate": 6.764190476190477e-06, "loss": 0.4732, "step": 12250 }, { "epoch": 3.2733333333333334, "grad_norm": 10.749238014221191, "learning_rate": 6.754666666666667e-06, "loss": 0.508, "step": 12275 }, { "epoch": 3.2800000000000002, "grad_norm": 10.247891426086426, "learning_rate": 6.745142857142858e-06, "loss": 0.4959, "step": 12300 }, { "epoch": 3.2866666666666666, "grad_norm": 12.256282806396484, "learning_rate": 6.735619047619049e-06, "loss": 0.5428, "step": 12325 }, { "epoch": 3.2933333333333334, "grad_norm": 12.027799606323242, "learning_rate": 6.7260952380952384e-06, "loss": 0.4995, "step": 12350 }, { "epoch": 3.3, "grad_norm": 10.486251831054688, "learning_rate": 6.716571428571429e-06, "loss": 0.4829, "step": 12375 }, { "epoch": 3.3066666666666666, "grad_norm": 11.952607154846191, "learning_rate": 6.70704761904762e-06, "loss": 0.4823, "step": 12400 }, { "epoch": 3.3133333333333335, "grad_norm": 10.99917984008789, "learning_rate": 6.69752380952381e-06, "loss": 0.5079, "step": 12425 }, { "epoch": 3.32, "grad_norm": 11.525209426879883, "learning_rate": 6.688e-06, "loss": 0.4849, "step": 12450 }, { "epoch": 3.3266666666666667, "grad_norm": 12.419649124145508, "learning_rate": 6.678476190476191e-06, "loss": 0.4949, "step": 12475 }, { "epoch": 3.3333333333333335, "grad_norm": 14.169283866882324, "learning_rate": 6.6689523809523815e-06, "loss": 0.521, "step": 12500 }, { "epoch": 3.34, "grad_norm": 9.618293762207031, "learning_rate": 6.659428571428572e-06, "loss": 0.5, "step": 12525 }, { "epoch": 3.3466666666666667, "grad_norm": 11.167661666870117, "learning_rate": 6.649904761904763e-06, "loss": 0.4784, "step": 12550 }, { "epoch": 3.3533333333333335, "grad_norm": 12.019277572631836, "learning_rate": 6.6403809523809526e-06, "loss": 0.4995, "step": 12575 }, { "epoch": 3.36, "grad_norm": 11.465080261230469, "learning_rate": 6.630857142857143e-06, "loss": 0.4766, "step": 12600 }, { "epoch": 3.3666666666666667, "grad_norm": 13.71762466430664, "learning_rate": 6.621333333333334e-06, "loss": 0.5173, "step": 12625 }, { "epoch": 3.3733333333333335, "grad_norm": 13.243829727172852, "learning_rate": 6.6118095238095245e-06, "loss": 0.5031, "step": 12650 }, { "epoch": 3.38, "grad_norm": 14.001572608947754, "learning_rate": 6.602285714285714e-06, "loss": 0.5038, "step": 12675 }, { "epoch": 3.3866666666666667, "grad_norm": 12.31753158569336, "learning_rate": 6.592761904761905e-06, "loss": 0.4943, "step": 12700 }, { "epoch": 3.3933333333333335, "grad_norm": 14.389829635620117, "learning_rate": 6.583238095238096e-06, "loss": 0.5397, "step": 12725 }, { "epoch": 3.4, "grad_norm": 12.86818790435791, "learning_rate": 6.574095238095238e-06, "loss": 0.5288, "step": 12750 }, { "epoch": 3.4066666666666667, "grad_norm": 12.44084644317627, "learning_rate": 6.564571428571429e-06, "loss": 0.5098, "step": 12775 }, { "epoch": 3.413333333333333, "grad_norm": 10.849265098571777, "learning_rate": 6.55504761904762e-06, "loss": 0.4957, "step": 12800 }, { "epoch": 3.42, "grad_norm": 10.919656753540039, "learning_rate": 6.545523809523811e-06, "loss": 0.5051, "step": 12825 }, { "epoch": 3.4266666666666667, "grad_norm": 9.849374771118164, "learning_rate": 6.536e-06, "loss": 0.4893, "step": 12850 }, { "epoch": 3.4333333333333336, "grad_norm": 10.729016304016113, "learning_rate": 6.526476190476191e-06, "loss": 0.506, "step": 12875 }, { "epoch": 3.44, "grad_norm": 15.104870796203613, "learning_rate": 6.516952380952382e-06, "loss": 0.4887, "step": 12900 }, { "epoch": 3.4466666666666668, "grad_norm": 13.399900436401367, "learning_rate": 6.5074285714285726e-06, "loss": 0.4991, "step": 12925 }, { "epoch": 3.453333333333333, "grad_norm": 12.082201957702637, "learning_rate": 6.497904761904762e-06, "loss": 0.509, "step": 12950 }, { "epoch": 3.46, "grad_norm": 25.478410720825195, "learning_rate": 6.488380952380953e-06, "loss": 0.4755, "step": 12975 }, { "epoch": 3.466666666666667, "grad_norm": 9.515766143798828, "learning_rate": 6.478857142857144e-06, "loss": 0.5011, "step": 13000 }, { "epoch": 3.473333333333333, "grad_norm": 10.889909744262695, "learning_rate": 6.469333333333334e-06, "loss": 0.4898, "step": 13025 }, { "epoch": 3.48, "grad_norm": 11.391474723815918, "learning_rate": 6.459809523809525e-06, "loss": 0.4915, "step": 13050 }, { "epoch": 3.486666666666667, "grad_norm": 11.618562698364258, "learning_rate": 6.450285714285715e-06, "loss": 0.481, "step": 13075 }, { "epoch": 3.493333333333333, "grad_norm": 12.415369987487793, "learning_rate": 6.440761904761905e-06, "loss": 0.4753, "step": 13100 }, { "epoch": 3.5, "grad_norm": 10.3595609664917, "learning_rate": 6.431238095238096e-06, "loss": 0.4787, "step": 13125 }, { "epoch": 3.506666666666667, "grad_norm": 13.364038467407227, "learning_rate": 6.421714285714287e-06, "loss": 0.5048, "step": 13150 }, { "epoch": 3.513333333333333, "grad_norm": 13.311882972717285, "learning_rate": 6.4121904761904765e-06, "loss": 0.4821, "step": 13175 }, { "epoch": 3.52, "grad_norm": 13.191845893859863, "learning_rate": 6.402666666666667e-06, "loss": 0.4649, "step": 13200 }, { "epoch": 3.5266666666666664, "grad_norm": 11.994148254394531, "learning_rate": 6.393142857142858e-06, "loss": 0.4889, "step": 13225 }, { "epoch": 3.533333333333333, "grad_norm": 10.683796882629395, "learning_rate": 6.3836190476190484e-06, "loss": 0.4732, "step": 13250 }, { "epoch": 3.54, "grad_norm": 11.871121406555176, "learning_rate": 6.374095238095238e-06, "loss": 0.4774, "step": 13275 }, { "epoch": 3.546666666666667, "grad_norm": 9.85095500946045, "learning_rate": 6.364571428571429e-06, "loss": 0.4677, "step": 13300 }, { "epoch": 3.5533333333333332, "grad_norm": 14.219855308532715, "learning_rate": 6.3550476190476195e-06, "loss": 0.4698, "step": 13325 }, { "epoch": 3.56, "grad_norm": 13.263378143310547, "learning_rate": 6.34552380952381e-06, "loss": 0.4877, "step": 13350 }, { "epoch": 3.5666666666666664, "grad_norm": 13.560983657836914, "learning_rate": 6.336000000000001e-06, "loss": 0.5171, "step": 13375 }, { "epoch": 3.5733333333333333, "grad_norm": 11.694659233093262, "learning_rate": 6.326476190476191e-06, "loss": 0.4713, "step": 13400 }, { "epoch": 3.58, "grad_norm": 11.852154731750488, "learning_rate": 6.316952380952381e-06, "loss": 0.4948, "step": 13425 }, { "epoch": 3.586666666666667, "grad_norm": 11.24864387512207, "learning_rate": 6.307428571428572e-06, "loss": 0.456, "step": 13450 }, { "epoch": 3.5933333333333333, "grad_norm": 10.200554847717285, "learning_rate": 6.297904761904763e-06, "loss": 0.4661, "step": 13475 }, { "epoch": 3.6, "grad_norm": 11.893993377685547, "learning_rate": 6.288380952380952e-06, "loss": 0.5127, "step": 13500 }, { "epoch": 3.6066666666666665, "grad_norm": 10.014711380004883, "learning_rate": 6.278857142857143e-06, "loss": 0.4686, "step": 13525 }, { "epoch": 3.6133333333333333, "grad_norm": 9.560457229614258, "learning_rate": 6.269333333333334e-06, "loss": 0.4579, "step": 13550 }, { "epoch": 3.62, "grad_norm": 11.7158842086792, "learning_rate": 6.259809523809524e-06, "loss": 0.4567, "step": 13575 }, { "epoch": 3.626666666666667, "grad_norm": 11.012439727783203, "learning_rate": 6.250285714285714e-06, "loss": 0.4848, "step": 13600 }, { "epoch": 3.6333333333333333, "grad_norm": 8.966629028320312, "learning_rate": 6.240761904761905e-06, "loss": 0.5114, "step": 13625 }, { "epoch": 3.64, "grad_norm": 10.94540786743164, "learning_rate": 6.231238095238095e-06, "loss": 0.469, "step": 13650 }, { "epoch": 3.6466666666666665, "grad_norm": 11.315279006958008, "learning_rate": 6.221714285714286e-06, "loss": 0.4708, "step": 13675 }, { "epoch": 3.6533333333333333, "grad_norm": 22.30031967163086, "learning_rate": 6.2121904761904776e-06, "loss": 0.4641, "step": 13700 }, { "epoch": 3.66, "grad_norm": 11.043286323547363, "learning_rate": 6.2026666666666665e-06, "loss": 0.4726, "step": 13725 }, { "epoch": 3.6666666666666665, "grad_norm": 11.227936744689941, "learning_rate": 6.193142857142857e-06, "loss": 0.4801, "step": 13750 }, { "epoch": 3.6733333333333333, "grad_norm": 11.239582061767578, "learning_rate": 6.183619047619049e-06, "loss": 0.4647, "step": 13775 }, { "epoch": 3.68, "grad_norm": 11.19600772857666, "learning_rate": 6.174095238095239e-06, "loss": 0.4684, "step": 13800 }, { "epoch": 3.6866666666666665, "grad_norm": 10.861858367919922, "learning_rate": 6.164571428571428e-06, "loss": 0.423, "step": 13825 }, { "epoch": 3.6933333333333334, "grad_norm": 11.881906509399414, "learning_rate": 6.15504761904762e-06, "loss": 0.4809, "step": 13850 }, { "epoch": 3.7, "grad_norm": 10.404175758361816, "learning_rate": 6.14552380952381e-06, "loss": 0.4727, "step": 13875 }, { "epoch": 3.7066666666666666, "grad_norm": 9.48364543914795, "learning_rate": 6.136000000000001e-06, "loss": 0.4335, "step": 13900 }, { "epoch": 3.7133333333333334, "grad_norm": 13.978439331054688, "learning_rate": 6.126476190476191e-06, "loss": 0.4668, "step": 13925 }, { "epoch": 3.7199999999999998, "grad_norm": 10.974068641662598, "learning_rate": 6.1169523809523815e-06, "loss": 0.4484, "step": 13950 }, { "epoch": 3.7266666666666666, "grad_norm": 15.350714683532715, "learning_rate": 6.107428571428572e-06, "loss": 0.4601, "step": 13975 }, { "epoch": 3.7333333333333334, "grad_norm": 10.147052764892578, "learning_rate": 6.097904761904763e-06, "loss": 0.4539, "step": 14000 }, { "epoch": 3.74, "grad_norm": 10.83529281616211, "learning_rate": 6.0883809523809534e-06, "loss": 0.4379, "step": 14025 }, { "epoch": 3.7466666666666666, "grad_norm": 12.033324241638184, "learning_rate": 6.078857142857143e-06, "loss": 0.5048, "step": 14050 }, { "epoch": 3.7533333333333334, "grad_norm": 10.499911308288574, "learning_rate": 6.069333333333334e-06, "loss": 0.4474, "step": 14075 }, { "epoch": 3.76, "grad_norm": 11.61489486694336, "learning_rate": 6.0598095238095245e-06, "loss": 0.4859, "step": 14100 }, { "epoch": 3.7666666666666666, "grad_norm": 9.69386100769043, "learning_rate": 6.050285714285715e-06, "loss": 0.4444, "step": 14125 }, { "epoch": 3.7733333333333334, "grad_norm": 14.297806739807129, "learning_rate": 6.040761904761905e-06, "loss": 0.4534, "step": 14150 }, { "epoch": 3.7800000000000002, "grad_norm": 14.559823036193848, "learning_rate": 6.031238095238096e-06, "loss": 0.4847, "step": 14175 }, { "epoch": 3.7866666666666666, "grad_norm": 15.091312408447266, "learning_rate": 6.021714285714286e-06, "loss": 0.4543, "step": 14200 }, { "epoch": 3.7933333333333334, "grad_norm": 10.373146057128906, "learning_rate": 6.012190476190477e-06, "loss": 0.4716, "step": 14225 }, { "epoch": 3.8, "grad_norm": 10.698457717895508, "learning_rate": 6.002666666666667e-06, "loss": 0.4474, "step": 14250 }, { "epoch": 3.8066666666666666, "grad_norm": 11.699769973754883, "learning_rate": 5.993142857142857e-06, "loss": 0.4608, "step": 14275 }, { "epoch": 3.8133333333333335, "grad_norm": 12.60550594329834, "learning_rate": 5.983619047619048e-06, "loss": 0.4635, "step": 14300 }, { "epoch": 3.82, "grad_norm": 11.257928848266602, "learning_rate": 5.974095238095239e-06, "loss": 0.4755, "step": 14325 }, { "epoch": 3.8266666666666667, "grad_norm": 10.141471862792969, "learning_rate": 5.964571428571429e-06, "loss": 0.4712, "step": 14350 }, { "epoch": 3.8333333333333335, "grad_norm": 9.5350980758667, "learning_rate": 5.955047619047619e-06, "loss": 0.4384, "step": 14375 }, { "epoch": 3.84, "grad_norm": 10.313675880432129, "learning_rate": 5.94552380952381e-06, "loss": 0.4564, "step": 14400 }, { "epoch": 3.8466666666666667, "grad_norm": 12.84475326538086, "learning_rate": 5.9360000000000004e-06, "loss": 0.4724, "step": 14425 }, { "epoch": 3.8533333333333335, "grad_norm": 12.937376976013184, "learning_rate": 5.926476190476191e-06, "loss": 0.4274, "step": 14450 }, { "epoch": 3.86, "grad_norm": 13.481277465820312, "learning_rate": 5.916952380952381e-06, "loss": 0.4748, "step": 14475 }, { "epoch": 3.8666666666666667, "grad_norm": 12.077851295471191, "learning_rate": 5.9074285714285715e-06, "loss": 0.4338, "step": 14500 }, { "epoch": 3.873333333333333, "grad_norm": 17.044307708740234, "learning_rate": 5.897904761904762e-06, "loss": 0.4751, "step": 14525 }, { "epoch": 3.88, "grad_norm": 10.86585521697998, "learning_rate": 5.888380952380953e-06, "loss": 0.4561, "step": 14550 }, { "epoch": 3.8866666666666667, "grad_norm": 11.32470417022705, "learning_rate": 5.878857142857143e-06, "loss": 0.4579, "step": 14575 }, { "epoch": 3.8933333333333335, "grad_norm": 10.423858642578125, "learning_rate": 5.869333333333333e-06, "loss": 0.4713, "step": 14600 }, { "epoch": 3.9, "grad_norm": 11.775293350219727, "learning_rate": 5.859809523809524e-06, "loss": 0.4475, "step": 14625 }, { "epoch": 3.9066666666666667, "grad_norm": 12.248529434204102, "learning_rate": 5.850285714285715e-06, "loss": 0.4389, "step": 14650 }, { "epoch": 3.913333333333333, "grad_norm": 13.041121482849121, "learning_rate": 5.840761904761906e-06, "loss": 0.4238, "step": 14675 }, { "epoch": 3.92, "grad_norm": 11.071513175964355, "learning_rate": 5.831238095238095e-06, "loss": 0.4578, "step": 14700 }, { "epoch": 3.9266666666666667, "grad_norm": 11.777270317077637, "learning_rate": 5.8217142857142865e-06, "loss": 0.449, "step": 14725 }, { "epoch": 3.9333333333333336, "grad_norm": 9.53614330291748, "learning_rate": 5.812190476190477e-06, "loss": 0.4434, "step": 14750 }, { "epoch": 3.94, "grad_norm": 11.049838066101074, "learning_rate": 5.8030476190476196e-06, "loss": 0.4429, "step": 14775 }, { "epoch": 3.9466666666666668, "grad_norm": 10.537498474121094, "learning_rate": 5.79352380952381e-06, "loss": 0.4419, "step": 14800 }, { "epoch": 3.953333333333333, "grad_norm": 10.076704978942871, "learning_rate": 5.784000000000001e-06, "loss": 0.4416, "step": 14825 }, { "epoch": 3.96, "grad_norm": 11.104874610900879, "learning_rate": 5.7744761904761915e-06, "loss": 0.4293, "step": 14850 }, { "epoch": 3.966666666666667, "grad_norm": 9.148529052734375, "learning_rate": 5.764952380952381e-06, "loss": 0.4164, "step": 14875 }, { "epoch": 3.9733333333333336, "grad_norm": 13.170355796813965, "learning_rate": 5.755428571428572e-06, "loss": 0.443, "step": 14900 }, { "epoch": 3.98, "grad_norm": 10.908595085144043, "learning_rate": 5.745904761904763e-06, "loss": 0.4685, "step": 14925 }, { "epoch": 3.986666666666667, "grad_norm": 11.438350677490234, "learning_rate": 5.736380952380953e-06, "loss": 0.4543, "step": 14950 }, { "epoch": 3.993333333333333, "grad_norm": 11.446995735168457, "learning_rate": 5.726857142857143e-06, "loss": 0.4637, "step": 14975 }, { "epoch": 4.0, "grad_norm": 9.517651557922363, "learning_rate": 5.717333333333334e-06, "loss": 0.4456, "step": 15000 }, { "epoch": 4.0, "eval_cer": 33.51284870394872, "eval_loss": 0.5604757070541382, "eval_runtime": 1257.5332, "eval_samples_per_second": 3.976, "eval_steps_per_second": 0.497, "step": 15000 }, { "epoch": 4.006666666666667, "grad_norm": 8.048381805419922, "learning_rate": 5.707809523809524e-06, "loss": 0.3339, "step": 15025 }, { "epoch": 4.013333333333334, "grad_norm": 8.614891052246094, "learning_rate": 5.698285714285715e-06, "loss": 0.3472, "step": 15050 }, { "epoch": 4.02, "grad_norm": 10.11340618133545, "learning_rate": 5.689142857142857e-06, "loss": 0.3263, "step": 15075 }, { "epoch": 4.026666666666666, "grad_norm": 8.08271312713623, "learning_rate": 5.679619047619048e-06, "loss": 0.2898, "step": 15100 }, { "epoch": 4.033333333333333, "grad_norm": 11.943778038024902, "learning_rate": 5.670095238095239e-06, "loss": 0.3213, "step": 15125 }, { "epoch": 4.04, "grad_norm": 10.530561447143555, "learning_rate": 5.6605714285714285e-06, "loss": 0.3375, "step": 15150 }, { "epoch": 4.046666666666667, "grad_norm": 8.29314136505127, "learning_rate": 5.651047619047619e-06, "loss": 0.3298, "step": 15175 }, { "epoch": 4.053333333333334, "grad_norm": 9.555585861206055, "learning_rate": 5.64152380952381e-06, "loss": 0.327, "step": 15200 }, { "epoch": 4.06, "grad_norm": 8.191747665405273, "learning_rate": 5.632380952380952e-06, "loss": 0.3361, "step": 15225 }, { "epoch": 4.066666666666666, "grad_norm": 8.206145286560059, "learning_rate": 5.622857142857143e-06, "loss": 0.3021, "step": 15250 }, { "epoch": 4.073333333333333, "grad_norm": 8.4190034866333, "learning_rate": 5.613333333333334e-06, "loss": 0.3292, "step": 15275 }, { "epoch": 4.08, "grad_norm": 8.32529067993164, "learning_rate": 5.603809523809525e-06, "loss": 0.3045, "step": 15300 }, { "epoch": 4.086666666666667, "grad_norm": 8.597929954528809, "learning_rate": 5.594285714285714e-06, "loss": 0.3101, "step": 15325 }, { "epoch": 4.093333333333334, "grad_norm": 12.353202819824219, "learning_rate": 5.5847619047619055e-06, "loss": 0.3186, "step": 15350 }, { "epoch": 4.1, "grad_norm": 9.331357955932617, "learning_rate": 5.575238095238096e-06, "loss": 0.322, "step": 15375 }, { "epoch": 4.1066666666666665, "grad_norm": 8.631187438964844, "learning_rate": 5.565714285714287e-06, "loss": 0.2917, "step": 15400 }, { "epoch": 4.113333333333333, "grad_norm": 8.930805206298828, "learning_rate": 5.556190476190476e-06, "loss": 0.3081, "step": 15425 }, { "epoch": 4.12, "grad_norm": 10.010102272033691, "learning_rate": 5.546666666666667e-06, "loss": 0.3194, "step": 15450 }, { "epoch": 4.126666666666667, "grad_norm": 11.348918914794922, "learning_rate": 5.537142857142858e-06, "loss": 0.3238, "step": 15475 }, { "epoch": 4.133333333333334, "grad_norm": 10.228910446166992, "learning_rate": 5.5276190476190485e-06, "loss": 0.3081, "step": 15500 }, { "epoch": 4.14, "grad_norm": 9.271944999694824, "learning_rate": 5.518095238095239e-06, "loss": 0.3, "step": 15525 }, { "epoch": 4.1466666666666665, "grad_norm": 8.432865142822266, "learning_rate": 5.508571428571429e-06, "loss": 0.3086, "step": 15550 }, { "epoch": 4.153333333333333, "grad_norm": 10.492192268371582, "learning_rate": 5.49904761904762e-06, "loss": 0.3176, "step": 15575 }, { "epoch": 4.16, "grad_norm": 9.542667388916016, "learning_rate": 5.48952380952381e-06, "loss": 0.3328, "step": 15600 }, { "epoch": 4.166666666666667, "grad_norm": 10.733734130859375, "learning_rate": 5.480000000000001e-06, "loss": 0.3209, "step": 15625 }, { "epoch": 4.173333333333334, "grad_norm": 9.778740882873535, "learning_rate": 5.470476190476191e-06, "loss": 0.3129, "step": 15650 }, { "epoch": 4.18, "grad_norm": 10.064433097839355, "learning_rate": 5.460952380952381e-06, "loss": 0.3422, "step": 15675 }, { "epoch": 4.1866666666666665, "grad_norm": 9.419994354248047, "learning_rate": 5.451428571428572e-06, "loss": 0.3085, "step": 15700 }, { "epoch": 4.193333333333333, "grad_norm": 8.854816436767578, "learning_rate": 5.441904761904763e-06, "loss": 0.3053, "step": 15725 }, { "epoch": 4.2, "grad_norm": 10.462236404418945, "learning_rate": 5.4323809523809524e-06, "loss": 0.3139, "step": 15750 }, { "epoch": 4.206666666666667, "grad_norm": 10.421845436096191, "learning_rate": 5.422857142857143e-06, "loss": 0.318, "step": 15775 }, { "epoch": 4.213333333333333, "grad_norm": 10.000661849975586, "learning_rate": 5.413333333333334e-06, "loss": 0.3083, "step": 15800 }, { "epoch": 4.22, "grad_norm": 8.43700122833252, "learning_rate": 5.403809523809524e-06, "loss": 0.3035, "step": 15825 }, { "epoch": 4.226666666666667, "grad_norm": 10.830517768859863, "learning_rate": 5.394285714285715e-06, "loss": 0.3181, "step": 15850 }, { "epoch": 4.233333333333333, "grad_norm": 10.309795379638672, "learning_rate": 5.384761904761905e-06, "loss": 0.3065, "step": 15875 }, { "epoch": 4.24, "grad_norm": 10.32172679901123, "learning_rate": 5.3752380952380955e-06, "loss": 0.3253, "step": 15900 }, { "epoch": 4.246666666666667, "grad_norm": 10.448396682739258, "learning_rate": 5.365714285714286e-06, "loss": 0.3284, "step": 15925 }, { "epoch": 4.253333333333333, "grad_norm": 8.654017448425293, "learning_rate": 5.356190476190477e-06, "loss": 0.3092, "step": 15950 }, { "epoch": 4.26, "grad_norm": 9.531099319458008, "learning_rate": 5.346666666666667e-06, "loss": 0.3028, "step": 15975 }, { "epoch": 4.266666666666667, "grad_norm": 9.714905738830566, "learning_rate": 5.337142857142857e-06, "loss": 0.3303, "step": 16000 }, { "epoch": 4.273333333333333, "grad_norm": 9.485723495483398, "learning_rate": 5.327619047619048e-06, "loss": 0.3142, "step": 16025 }, { "epoch": 4.28, "grad_norm": 8.28490161895752, "learning_rate": 5.3180952380952385e-06, "loss": 0.303, "step": 16050 }, { "epoch": 4.286666666666667, "grad_norm": 9.35464859008789, "learning_rate": 5.308571428571428e-06, "loss": 0.2976, "step": 16075 }, { "epoch": 4.293333333333333, "grad_norm": 7.052751064300537, "learning_rate": 5.299047619047619e-06, "loss": 0.3062, "step": 16100 }, { "epoch": 4.3, "grad_norm": 10.223549842834473, "learning_rate": 5.28952380952381e-06, "loss": 0.2854, "step": 16125 }, { "epoch": 4.306666666666667, "grad_norm": 10.071595191955566, "learning_rate": 5.28e-06, "loss": 0.3243, "step": 16150 }, { "epoch": 4.3133333333333335, "grad_norm": 9.76194953918457, "learning_rate": 5.270476190476192e-06, "loss": 0.3095, "step": 16175 }, { "epoch": 4.32, "grad_norm": 10.756041526794434, "learning_rate": 5.260952380952381e-06, "loss": 0.3155, "step": 16200 }, { "epoch": 4.326666666666666, "grad_norm": 10.280360221862793, "learning_rate": 5.251428571428571e-06, "loss": 0.2937, "step": 16225 }, { "epoch": 4.333333333333333, "grad_norm": 9.45496940612793, "learning_rate": 5.241904761904763e-06, "loss": 0.3393, "step": 16250 }, { "epoch": 4.34, "grad_norm": 10.991464614868164, "learning_rate": 5.2323809523809535e-06, "loss": 0.2913, "step": 16275 }, { "epoch": 4.346666666666667, "grad_norm": 6.641556739807129, "learning_rate": 5.2228571428571425e-06, "loss": 0.3182, "step": 16300 }, { "epoch": 4.3533333333333335, "grad_norm": 10.65419864654541, "learning_rate": 5.213333333333334e-06, "loss": 0.335, "step": 16325 }, { "epoch": 4.36, "grad_norm": 17.044570922851562, "learning_rate": 5.203809523809525e-06, "loss": 0.3011, "step": 16350 }, { "epoch": 4.366666666666666, "grad_norm": 9.57125186920166, "learning_rate": 5.194285714285715e-06, "loss": 0.2971, "step": 16375 }, { "epoch": 4.373333333333333, "grad_norm": 8.840594291687012, "learning_rate": 5.184761904761905e-06, "loss": 0.3135, "step": 16400 }, { "epoch": 4.38, "grad_norm": 11.715888023376465, "learning_rate": 5.175238095238096e-06, "loss": 0.3153, "step": 16425 }, { "epoch": 4.386666666666667, "grad_norm": 13.059679985046387, "learning_rate": 5.165714285714286e-06, "loss": 0.3264, "step": 16450 }, { "epoch": 4.3933333333333335, "grad_norm": 11.930802345275879, "learning_rate": 5.156190476190477e-06, "loss": 0.3147, "step": 16475 }, { "epoch": 4.4, "grad_norm": 8.743474006652832, "learning_rate": 5.146666666666668e-06, "loss": 0.3332, "step": 16500 }, { "epoch": 4.406666666666666, "grad_norm": 8.996326446533203, "learning_rate": 5.1371428571428574e-06, "loss": 0.3099, "step": 16525 }, { "epoch": 4.413333333333333, "grad_norm": 10.594891548156738, "learning_rate": 5.127619047619048e-06, "loss": 0.3252, "step": 16550 }, { "epoch": 4.42, "grad_norm": 9.679217338562012, "learning_rate": 5.118095238095239e-06, "loss": 0.3103, "step": 16575 }, { "epoch": 4.426666666666667, "grad_norm": 10.920363426208496, "learning_rate": 5.108571428571429e-06, "loss": 0.3334, "step": 16600 }, { "epoch": 4.433333333333334, "grad_norm": 9.17928409576416, "learning_rate": 5.099047619047619e-06, "loss": 0.2973, "step": 16625 }, { "epoch": 4.44, "grad_norm": 12.468182563781738, "learning_rate": 5.08952380952381e-06, "loss": 0.295, "step": 16650 }, { "epoch": 4.446666666666666, "grad_norm": 10.241423606872559, "learning_rate": 5.0800000000000005e-06, "loss": 0.3073, "step": 16675 }, { "epoch": 4.453333333333333, "grad_norm": 10.164717674255371, "learning_rate": 5.070476190476191e-06, "loss": 0.3327, "step": 16700 }, { "epoch": 4.46, "grad_norm": 9.974150657653809, "learning_rate": 5.060952380952381e-06, "loss": 0.307, "step": 16725 }, { "epoch": 4.466666666666667, "grad_norm": 11.141595840454102, "learning_rate": 5.051428571428572e-06, "loss": 0.3043, "step": 16750 }, { "epoch": 4.473333333333334, "grad_norm": 12.054980278015137, "learning_rate": 5.041904761904762e-06, "loss": 0.318, "step": 16775 }, { "epoch": 4.48, "grad_norm": 12.922260284423828, "learning_rate": 5.032380952380953e-06, "loss": 0.3038, "step": 16800 }, { "epoch": 4.486666666666666, "grad_norm": 10.24083423614502, "learning_rate": 5.0228571428571435e-06, "loss": 0.2852, "step": 16825 }, { "epoch": 4.493333333333333, "grad_norm": 9.841482162475586, "learning_rate": 5.013333333333333e-06, "loss": 0.3035, "step": 16850 }, { "epoch": 4.5, "grad_norm": 7.974876880645752, "learning_rate": 5.003809523809524e-06, "loss": 0.31, "step": 16875 }, { "epoch": 4.506666666666667, "grad_norm": 9.428491592407227, "learning_rate": 4.994285714285715e-06, "loss": 0.3015, "step": 16900 }, { "epoch": 4.513333333333334, "grad_norm": 12.49358081817627, "learning_rate": 4.984761904761905e-06, "loss": 0.3169, "step": 16925 }, { "epoch": 4.52, "grad_norm": 9.62221622467041, "learning_rate": 4.975238095238096e-06, "loss": 0.3092, "step": 16950 }, { "epoch": 4.526666666666666, "grad_norm": 9.83435344696045, "learning_rate": 4.965714285714286e-06, "loss": 0.3114, "step": 16975 }, { "epoch": 4.533333333333333, "grad_norm": 10.360796928405762, "learning_rate": 4.956190476190476e-06, "loss": 0.2863, "step": 17000 }, { "epoch": 4.54, "grad_norm": 17.37690544128418, "learning_rate": 4.946666666666667e-06, "loss": 0.2899, "step": 17025 }, { "epoch": 4.546666666666667, "grad_norm": 9.512418746948242, "learning_rate": 4.937142857142858e-06, "loss": 0.2921, "step": 17050 }, { "epoch": 4.553333333333334, "grad_norm": 12.000075340270996, "learning_rate": 4.9276190476190475e-06, "loss": 0.2975, "step": 17075 }, { "epoch": 4.5600000000000005, "grad_norm": 10.56713581085205, "learning_rate": 4.918095238095238e-06, "loss": 0.3127, "step": 17100 }, { "epoch": 4.566666666666666, "grad_norm": 9.771611213684082, "learning_rate": 4.90857142857143e-06, "loss": 0.2996, "step": 17125 }, { "epoch": 4.573333333333333, "grad_norm": 10.196813583374023, "learning_rate": 4.899047619047619e-06, "loss": 0.3065, "step": 17150 }, { "epoch": 4.58, "grad_norm": 8.648836135864258, "learning_rate": 4.88952380952381e-06, "loss": 0.3194, "step": 17175 }, { "epoch": 4.586666666666667, "grad_norm": 10.869104385375977, "learning_rate": 4.880000000000001e-06, "loss": 0.3292, "step": 17200 }, { "epoch": 4.593333333333334, "grad_norm": 11.556739807128906, "learning_rate": 4.870476190476191e-06, "loss": 0.3041, "step": 17225 }, { "epoch": 4.6, "grad_norm": 9.305351257324219, "learning_rate": 4.860952380952381e-06, "loss": 0.3052, "step": 17250 }, { "epoch": 4.6066666666666665, "grad_norm": 10.647177696228027, "learning_rate": 4.851428571428572e-06, "loss": 0.3177, "step": 17275 }, { "epoch": 4.613333333333333, "grad_norm": 10.698431015014648, "learning_rate": 4.8419047619047625e-06, "loss": 0.2978, "step": 17300 }, { "epoch": 4.62, "grad_norm": 8.942152976989746, "learning_rate": 4.832380952380953e-06, "loss": 0.3245, "step": 17325 }, { "epoch": 4.626666666666667, "grad_norm": 10.327858924865723, "learning_rate": 4.822857142857143e-06, "loss": 0.2931, "step": 17350 }, { "epoch": 4.633333333333333, "grad_norm": 11.433348655700684, "learning_rate": 4.8133333333333336e-06, "loss": 0.2923, "step": 17375 }, { "epoch": 4.64, "grad_norm": 9.373231887817383, "learning_rate": 4.803809523809524e-06, "loss": 0.303, "step": 17400 }, { "epoch": 4.6466666666666665, "grad_norm": 9.254290580749512, "learning_rate": 4.794285714285715e-06, "loss": 0.3348, "step": 17425 }, { "epoch": 4.653333333333333, "grad_norm": 8.477432250976562, "learning_rate": 4.7847619047619055e-06, "loss": 0.3149, "step": 17450 }, { "epoch": 4.66, "grad_norm": 11.307690620422363, "learning_rate": 4.775238095238095e-06, "loss": 0.3255, "step": 17475 }, { "epoch": 4.666666666666667, "grad_norm": 10.742232322692871, "learning_rate": 4.765714285714286e-06, "loss": 0.283, "step": 17500 }, { "epoch": 4.673333333333334, "grad_norm": 8.515355110168457, "learning_rate": 4.756190476190477e-06, "loss": 0.2981, "step": 17525 }, { "epoch": 4.68, "grad_norm": 9.409554481506348, "learning_rate": 4.746666666666667e-06, "loss": 0.2838, "step": 17550 }, { "epoch": 4.6866666666666665, "grad_norm": 8.475625038146973, "learning_rate": 4.737142857142857e-06, "loss": 0.2888, "step": 17575 }, { "epoch": 4.693333333333333, "grad_norm": 8.672394752502441, "learning_rate": 4.727619047619048e-06, "loss": 0.2984, "step": 17600 }, { "epoch": 4.7, "grad_norm": 9.644006729125977, "learning_rate": 4.718095238095238e-06, "loss": 0.3238, "step": 17625 }, { "epoch": 4.706666666666667, "grad_norm": 8.689643859863281, "learning_rate": 4.708571428571429e-06, "loss": 0.2792, "step": 17650 }, { "epoch": 4.713333333333333, "grad_norm": 9.85557746887207, "learning_rate": 4.699047619047619e-06, "loss": 0.307, "step": 17675 }, { "epoch": 4.72, "grad_norm": 10.979517936706543, "learning_rate": 4.68952380952381e-06, "loss": 0.3239, "step": 17700 }, { "epoch": 4.726666666666667, "grad_norm": 9.448708534240723, "learning_rate": 4.680000000000001e-06, "loss": 0.2912, "step": 17725 }, { "epoch": 4.733333333333333, "grad_norm": 9.72835922241211, "learning_rate": 4.670476190476191e-06, "loss": 0.2832, "step": 17750 }, { "epoch": 4.74, "grad_norm": 7.820613861083984, "learning_rate": 4.660952380952381e-06, "loss": 0.2978, "step": 17775 }, { "epoch": 4.746666666666667, "grad_norm": 8.233464241027832, "learning_rate": 4.651428571428572e-06, "loss": 0.2996, "step": 17800 }, { "epoch": 4.753333333333333, "grad_norm": 6.9929633140563965, "learning_rate": 4.641904761904763e-06, "loss": 0.2966, "step": 17825 }, { "epoch": 4.76, "grad_norm": 9.471182823181152, "learning_rate": 4.6323809523809525e-06, "loss": 0.3011, "step": 17850 }, { "epoch": 4.766666666666667, "grad_norm": 12.899848937988281, "learning_rate": 4.622857142857143e-06, "loss": 0.3025, "step": 17875 }, { "epoch": 4.773333333333333, "grad_norm": 7.973855495452881, "learning_rate": 4.613333333333334e-06, "loss": 0.2919, "step": 17900 }, { "epoch": 4.78, "grad_norm": 9.198212623596191, "learning_rate": 4.603809523809524e-06, "loss": 0.306, "step": 17925 }, { "epoch": 4.786666666666667, "grad_norm": 10.260598182678223, "learning_rate": 4.594285714285714e-06, "loss": 0.3163, "step": 17950 }, { "epoch": 4.793333333333333, "grad_norm": 10.847888946533203, "learning_rate": 4.584761904761905e-06, "loss": 0.3185, "step": 17975 }, { "epoch": 4.8, "grad_norm": 10.278909683227539, "learning_rate": 4.5752380952380955e-06, "loss": 0.2992, "step": 18000 }, { "epoch": 4.806666666666667, "grad_norm": 10.682908058166504, "learning_rate": 4.565714285714286e-06, "loss": 0.2874, "step": 18025 }, { "epoch": 4.8133333333333335, "grad_norm": 10.055337905883789, "learning_rate": 4.556190476190477e-06, "loss": 0.3111, "step": 18050 }, { "epoch": 4.82, "grad_norm": 10.803154945373535, "learning_rate": 4.546666666666667e-06, "loss": 0.3144, "step": 18075 }, { "epoch": 4.826666666666666, "grad_norm": 10.329032897949219, "learning_rate": 4.537142857142858e-06, "loss": 0.3034, "step": 18100 }, { "epoch": 4.833333333333333, "grad_norm": 10.935729026794434, "learning_rate": 4.527619047619048e-06, "loss": 0.276, "step": 18125 }, { "epoch": 4.84, "grad_norm": 9.673993110656738, "learning_rate": 4.5180952380952386e-06, "loss": 0.3141, "step": 18150 }, { "epoch": 4.846666666666667, "grad_norm": 8.502861976623535, "learning_rate": 4.508571428571429e-06, "loss": 0.3176, "step": 18175 }, { "epoch": 4.8533333333333335, "grad_norm": 9.226999282836914, "learning_rate": 4.49904761904762e-06, "loss": 0.2889, "step": 18200 }, { "epoch": 4.86, "grad_norm": 10.366243362426758, "learning_rate": 4.48952380952381e-06, "loss": 0.2986, "step": 18225 }, { "epoch": 4.866666666666667, "grad_norm": 8.475804328918457, "learning_rate": 4.48e-06, "loss": 0.2898, "step": 18250 }, { "epoch": 4.873333333333333, "grad_norm": 10.140361785888672, "learning_rate": 4.470476190476191e-06, "loss": 0.3105, "step": 18275 }, { "epoch": 4.88, "grad_norm": 10.46207332611084, "learning_rate": 4.460952380952382e-06, "loss": 0.3059, "step": 18300 }, { "epoch": 4.886666666666667, "grad_norm": 6.9246087074279785, "learning_rate": 4.451428571428571e-06, "loss": 0.2989, "step": 18325 }, { "epoch": 4.8933333333333335, "grad_norm": 9.295120239257812, "learning_rate": 4.441904761904762e-06, "loss": 0.2732, "step": 18350 }, { "epoch": 4.9, "grad_norm": 10.558050155639648, "learning_rate": 4.432380952380953e-06, "loss": 0.2778, "step": 18375 }, { "epoch": 4.906666666666666, "grad_norm": 9.852838516235352, "learning_rate": 4.422857142857143e-06, "loss": 0.3101, "step": 18400 }, { "epoch": 4.913333333333333, "grad_norm": 11.004863739013672, "learning_rate": 4.413333333333334e-06, "loss": 0.3014, "step": 18425 }, { "epoch": 4.92, "grad_norm": 9.618124961853027, "learning_rate": 4.403809523809524e-06, "loss": 0.289, "step": 18450 }, { "epoch": 4.926666666666667, "grad_norm": 10.464171409606934, "learning_rate": 4.3942857142857144e-06, "loss": 0.3138, "step": 18475 }, { "epoch": 4.933333333333334, "grad_norm": 9.081883430480957, "learning_rate": 4.384761904761905e-06, "loss": 0.2979, "step": 18500 }, { "epoch": 4.9399999999999995, "grad_norm": 9.078986167907715, "learning_rate": 4.375238095238096e-06, "loss": 0.28, "step": 18525 }, { "epoch": 4.946666666666666, "grad_norm": 12.288329124450684, "learning_rate": 4.3657142857142855e-06, "loss": 0.3065, "step": 18550 }, { "epoch": 4.953333333333333, "grad_norm": 10.339643478393555, "learning_rate": 4.356190476190477e-06, "loss": 0.2987, "step": 18575 }, { "epoch": 4.96, "grad_norm": 11.463048934936523, "learning_rate": 4.346666666666667e-06, "loss": 0.3112, "step": 18600 }, { "epoch": 4.966666666666667, "grad_norm": 9.053565979003906, "learning_rate": 4.3371428571428575e-06, "loss": 0.3138, "step": 18625 }, { "epoch": 4.973333333333334, "grad_norm": 10.120408058166504, "learning_rate": 4.327619047619048e-06, "loss": 0.3008, "step": 18650 }, { "epoch": 4.98, "grad_norm": 9.441789627075195, "learning_rate": 4.318095238095239e-06, "loss": 0.3454, "step": 18675 }, { "epoch": 4.986666666666666, "grad_norm": 10.250813484191895, "learning_rate": 4.3085714285714294e-06, "loss": 0.3002, "step": 18700 }, { "epoch": 4.993333333333333, "grad_norm": 8.938207626342773, "learning_rate": 4.299047619047619e-06, "loss": 0.2955, "step": 18725 }, { "epoch": 5.0, "grad_norm": 10.349512100219727, "learning_rate": 4.28952380952381e-06, "loss": 0.2892, "step": 18750 }, { "epoch": 5.0, "eval_cer": 29.252930324432104, "eval_loss": 0.4901806116104126, "eval_runtime": 2491.4721, "eval_samples_per_second": 2.007, "eval_steps_per_second": 0.251, "step": 18750 }, { "epoch": 5.006666666666667, "grad_norm": 7.985626697540283, "learning_rate": 4.2800000000000005e-06, "loss": 0.1952, "step": 18775 }, { "epoch": 5.013333333333334, "grad_norm": 8.156435012817383, "learning_rate": 4.270476190476191e-06, "loss": 0.2036, "step": 18800 }, { "epoch": 5.02, "grad_norm": 8.720768928527832, "learning_rate": 4.260952380952381e-06, "loss": 0.1944, "step": 18825 }, { "epoch": 5.026666666666666, "grad_norm": 7.987020015716553, "learning_rate": 4.251428571428572e-06, "loss": 0.1843, "step": 18850 }, { "epoch": 5.033333333333333, "grad_norm": 7.808590888977051, "learning_rate": 4.241904761904762e-06, "loss": 0.1992, "step": 18875 }, { "epoch": 5.04, "grad_norm": 10.41381549835205, "learning_rate": 4.232380952380953e-06, "loss": 0.1939, "step": 18900 }, { "epoch": 5.046666666666667, "grad_norm": 11.911057472229004, "learning_rate": 4.222857142857143e-06, "loss": 0.2106, "step": 18925 }, { "epoch": 5.053333333333334, "grad_norm": 9.796390533447266, "learning_rate": 4.213333333333333e-06, "loss": 0.2081, "step": 18950 }, { "epoch": 5.06, "grad_norm": 8.410797119140625, "learning_rate": 4.203809523809524e-06, "loss": 0.1918, "step": 18975 }, { "epoch": 5.066666666666666, "grad_norm": 9.115097999572754, "learning_rate": 4.194285714285715e-06, "loss": 0.2027, "step": 19000 }, { "epoch": 5.073333333333333, "grad_norm": 9.361824035644531, "learning_rate": 4.184761904761905e-06, "loss": 0.2025, "step": 19025 }, { "epoch": 5.08, "grad_norm": 6.564051628112793, "learning_rate": 4.175238095238095e-06, "loss": 0.1818, "step": 19050 }, { "epoch": 5.086666666666667, "grad_norm": 7.368160724639893, "learning_rate": 4.165714285714287e-06, "loss": 0.1784, "step": 19075 }, { "epoch": 5.093333333333334, "grad_norm": 7.630095958709717, "learning_rate": 4.156190476190476e-06, "loss": 0.1785, "step": 19100 }, { "epoch": 5.1, "grad_norm": 7.79328727722168, "learning_rate": 4.146666666666667e-06, "loss": 0.2083, "step": 19125 }, { "epoch": 5.1066666666666665, "grad_norm": 8.662083625793457, "learning_rate": 4.137142857142858e-06, "loss": 0.1749, "step": 19150 }, { "epoch": 5.113333333333333, "grad_norm": 8.603919982910156, "learning_rate": 4.127619047619048e-06, "loss": 0.1989, "step": 19175 }, { "epoch": 5.12, "grad_norm": 8.988569259643555, "learning_rate": 4.118095238095238e-06, "loss": 0.193, "step": 19200 }, { "epoch": 5.126666666666667, "grad_norm": 8.05239200592041, "learning_rate": 4.108571428571429e-06, "loss": 0.211, "step": 19225 }, { "epoch": 5.133333333333334, "grad_norm": 8.437687873840332, "learning_rate": 4.0990476190476195e-06, "loss": 0.1917, "step": 19250 }, { "epoch": 5.14, "grad_norm": 7.4004807472229, "learning_rate": 4.08952380952381e-06, "loss": 0.194, "step": 19275 }, { "epoch": 5.1466666666666665, "grad_norm": 7.564050674438477, "learning_rate": 4.08e-06, "loss": 0.1906, "step": 19300 }, { "epoch": 5.153333333333333, "grad_norm": 7.047972679138184, "learning_rate": 4.0704761904761905e-06, "loss": 0.1956, "step": 19325 }, { "epoch": 5.16, "grad_norm": 11.015487670898438, "learning_rate": 4.060952380952381e-06, "loss": 0.1927, "step": 19350 }, { "epoch": 5.166666666666667, "grad_norm": 8.164949417114258, "learning_rate": 4.051428571428572e-06, "loss": 0.202, "step": 19375 }, { "epoch": 5.173333333333334, "grad_norm": 8.828770637512207, "learning_rate": 4.0419047619047625e-06, "loss": 0.2013, "step": 19400 }, { "epoch": 5.18, "grad_norm": 9.231697082519531, "learning_rate": 4.032380952380952e-06, "loss": 0.1905, "step": 19425 }, { "epoch": 5.1866666666666665, "grad_norm": 7.885602951049805, "learning_rate": 4.022857142857143e-06, "loss": 0.1816, "step": 19450 }, { "epoch": 5.193333333333333, "grad_norm": 8.83842658996582, "learning_rate": 4.013333333333334e-06, "loss": 0.1927, "step": 19475 }, { "epoch": 5.2, "grad_norm": 7.405313491821289, "learning_rate": 4.003809523809524e-06, "loss": 0.2046, "step": 19500 }, { "epoch": 5.206666666666667, "grad_norm": 8.954514503479004, "learning_rate": 3.994285714285714e-06, "loss": 0.1884, "step": 19525 }, { "epoch": 5.213333333333333, "grad_norm": 6.903310298919678, "learning_rate": 3.9847619047619055e-06, "loss": 0.1974, "step": 19550 }, { "epoch": 5.22, "grad_norm": 7.697282314300537, "learning_rate": 3.975238095238095e-06, "loss": 0.1951, "step": 19575 }, { "epoch": 5.226666666666667, "grad_norm": 7.983479022979736, "learning_rate": 3.965714285714286e-06, "loss": 0.1767, "step": 19600 }, { "epoch": 5.233333333333333, "grad_norm": 7.9178996086120605, "learning_rate": 3.956190476190477e-06, "loss": 0.2033, "step": 19625 }, { "epoch": 5.24, "grad_norm": 7.179190158843994, "learning_rate": 3.946666666666667e-06, "loss": 0.192, "step": 19650 }, { "epoch": 5.246666666666667, "grad_norm": 7.762206554412842, "learning_rate": 3.937142857142858e-06, "loss": 0.179, "step": 19675 }, { "epoch": 5.253333333333333, "grad_norm": 8.757408142089844, "learning_rate": 3.927619047619048e-06, "loss": 0.1832, "step": 19700 }, { "epoch": 5.26, "grad_norm": 9.344717025756836, "learning_rate": 3.918095238095238e-06, "loss": 0.1917, "step": 19725 }, { "epoch": 5.266666666666667, "grad_norm": 7.477358818054199, "learning_rate": 3.908571428571429e-06, "loss": 0.1958, "step": 19750 }, { "epoch": 5.273333333333333, "grad_norm": 9.668907165527344, "learning_rate": 3.89904761904762e-06, "loss": 0.2022, "step": 19775 }, { "epoch": 5.28, "grad_norm": 8.70386791229248, "learning_rate": 3.8895238095238095e-06, "loss": 0.1949, "step": 19800 }, { "epoch": 5.286666666666667, "grad_norm": 9.728920936584473, "learning_rate": 3.88e-06, "loss": 0.1846, "step": 19825 }, { "epoch": 5.293333333333333, "grad_norm": 9.552372932434082, "learning_rate": 3.870476190476191e-06, "loss": 0.2042, "step": 19850 }, { "epoch": 5.3, "grad_norm": 8.776874542236328, "learning_rate": 3.860952380952381e-06, "loss": 0.1848, "step": 19875 }, { "epoch": 5.306666666666667, "grad_norm": 7.316644191741943, "learning_rate": 3.851428571428571e-06, "loss": 0.2034, "step": 19900 }, { "epoch": 5.3133333333333335, "grad_norm": 7.871955394744873, "learning_rate": 3.841904761904762e-06, "loss": 0.2107, "step": 19925 }, { "epoch": 5.32, "grad_norm": 8.964348793029785, "learning_rate": 3.8323809523809525e-06, "loss": 0.1829, "step": 19950 }, { "epoch": 5.326666666666666, "grad_norm": 7.642665863037109, "learning_rate": 3.823238095238096e-06, "loss": 0.1925, "step": 19975 }, { "epoch": 5.333333333333333, "grad_norm": 9.360111236572266, "learning_rate": 3.813714285714286e-06, "loss": 0.1863, "step": 20000 }, { "epoch": 5.34, "grad_norm": 7.561155796051025, "learning_rate": 3.8041904761904762e-06, "loss": 0.1955, "step": 20025 }, { "epoch": 5.346666666666667, "grad_norm": 8.517851829528809, "learning_rate": 3.794666666666667e-06, "loss": 0.1994, "step": 20050 }, { "epoch": 5.3533333333333335, "grad_norm": 6.252899646759033, "learning_rate": 3.785142857142857e-06, "loss": 0.1934, "step": 20075 }, { "epoch": 5.36, "grad_norm": 7.083781719207764, "learning_rate": 3.775619047619048e-06, "loss": 0.1984, "step": 20100 }, { "epoch": 5.366666666666666, "grad_norm": 7.514062881469727, "learning_rate": 3.766095238095238e-06, "loss": 0.1912, "step": 20125 }, { "epoch": 5.373333333333333, "grad_norm": 7.478180408477783, "learning_rate": 3.756571428571429e-06, "loss": 0.1924, "step": 20150 }, { "epoch": 5.38, "grad_norm": 8.921363830566406, "learning_rate": 3.7470476190476197e-06, "loss": 0.1864, "step": 20175 }, { "epoch": 5.386666666666667, "grad_norm": 8.301273345947266, "learning_rate": 3.73752380952381e-06, "loss": 0.1858, "step": 20200 }, { "epoch": 5.3933333333333335, "grad_norm": 7.96235466003418, "learning_rate": 3.7280000000000006e-06, "loss": 0.1903, "step": 20225 }, { "epoch": 5.4, "grad_norm": 7.3852314949035645, "learning_rate": 3.7184761904761908e-06, "loss": 0.1921, "step": 20250 }, { "epoch": 5.406666666666666, "grad_norm": 10.913273811340332, "learning_rate": 3.7089523809523814e-06, "loss": 0.2099, "step": 20275 }, { "epoch": 5.413333333333333, "grad_norm": 7.105083465576172, "learning_rate": 3.6994285714285717e-06, "loss": 0.2032, "step": 20300 }, { "epoch": 5.42, "grad_norm": 11.47011947631836, "learning_rate": 3.6899047619047623e-06, "loss": 0.1855, "step": 20325 }, { "epoch": 5.426666666666667, "grad_norm": 9.426026344299316, "learning_rate": 3.6803809523809525e-06, "loss": 0.2022, "step": 20350 }, { "epoch": 5.433333333333334, "grad_norm": 6.5077385902404785, "learning_rate": 3.670857142857143e-06, "loss": 0.1862, "step": 20375 }, { "epoch": 5.44, "grad_norm": 10.277649879455566, "learning_rate": 3.6613333333333334e-06, "loss": 0.2016, "step": 20400 }, { "epoch": 5.446666666666666, "grad_norm": 10.930854797363281, "learning_rate": 3.651809523809524e-06, "loss": 0.1917, "step": 20425 }, { "epoch": 5.453333333333333, "grad_norm": 6.5075483322143555, "learning_rate": 3.6422857142857143e-06, "loss": 0.184, "step": 20450 }, { "epoch": 5.46, "grad_norm": 6.974188327789307, "learning_rate": 3.632761904761905e-06, "loss": 0.1803, "step": 20475 }, { "epoch": 5.466666666666667, "grad_norm": 9.031807899475098, "learning_rate": 3.6232380952380956e-06, "loss": 0.2008, "step": 20500 }, { "epoch": 5.473333333333334, "grad_norm": 7.83148193359375, "learning_rate": 3.613714285714286e-06, "loss": 0.1892, "step": 20525 }, { "epoch": 5.48, "grad_norm": 6.750342845916748, "learning_rate": 3.604190476190477e-06, "loss": 0.1945, "step": 20550 }, { "epoch": 5.486666666666666, "grad_norm": 9.164301872253418, "learning_rate": 3.5946666666666667e-06, "loss": 0.1947, "step": 20575 }, { "epoch": 5.493333333333333, "grad_norm": 11.431715965270996, "learning_rate": 3.5851428571428577e-06, "loss": 0.1818, "step": 20600 }, { "epoch": 5.5, "grad_norm": 8.55545425415039, "learning_rate": 3.575619047619048e-06, "loss": 0.1888, "step": 20625 }, { "epoch": 5.506666666666667, "grad_norm": 8.573526382446289, "learning_rate": 3.5660952380952386e-06, "loss": 0.2201, "step": 20650 }, { "epoch": 5.513333333333334, "grad_norm": 5.881054401397705, "learning_rate": 3.556571428571429e-06, "loss": 0.1774, "step": 20675 }, { "epoch": 5.52, "grad_norm": 7.894813537597656, "learning_rate": 3.5470476190476195e-06, "loss": 0.1845, "step": 20700 }, { "epoch": 5.526666666666666, "grad_norm": 8.144282341003418, "learning_rate": 3.5375238095238097e-06, "loss": 0.1953, "step": 20725 }, { "epoch": 5.533333333333333, "grad_norm": 7.855108737945557, "learning_rate": 3.5280000000000004e-06, "loss": 0.2045, "step": 20750 }, { "epoch": 5.54, "grad_norm": 7.2064056396484375, "learning_rate": 3.5184761904761906e-06, "loss": 0.1948, "step": 20775 }, { "epoch": 5.546666666666667, "grad_norm": 7.160643577575684, "learning_rate": 3.5089523809523812e-06, "loss": 0.1897, "step": 20800 }, { "epoch": 5.553333333333334, "grad_norm": 9.265700340270996, "learning_rate": 3.499428571428572e-06, "loss": 0.1985, "step": 20825 }, { "epoch": 5.5600000000000005, "grad_norm": 9.418545722961426, "learning_rate": 3.489904761904762e-06, "loss": 0.1873, "step": 20850 }, { "epoch": 5.566666666666666, "grad_norm": 8.615635871887207, "learning_rate": 3.4803809523809528e-06, "loss": 0.1827, "step": 20875 }, { "epoch": 5.573333333333333, "grad_norm": 7.585402011871338, "learning_rate": 3.470857142857143e-06, "loss": 0.1782, "step": 20900 }, { "epoch": 5.58, "grad_norm": 8.061349868774414, "learning_rate": 3.4613333333333336e-06, "loss": 0.1935, "step": 20925 }, { "epoch": 5.586666666666667, "grad_norm": 8.644999504089355, "learning_rate": 3.451809523809524e-06, "loss": 0.1893, "step": 20950 }, { "epoch": 5.593333333333334, "grad_norm": 7.082459926605225, "learning_rate": 3.4422857142857145e-06, "loss": 0.1866, "step": 20975 }, { "epoch": 5.6, "grad_norm": 8.335304260253906, "learning_rate": 3.4327619047619047e-06, "loss": 0.1878, "step": 21000 }, { "epoch": 5.6066666666666665, "grad_norm": 11.208562850952148, "learning_rate": 3.423238095238096e-06, "loss": 0.2126, "step": 21025 }, { "epoch": 5.613333333333333, "grad_norm": 9.0767240524292, "learning_rate": 3.4137142857142856e-06, "loss": 0.1805, "step": 21050 }, { "epoch": 5.62, "grad_norm": 8.777009010314941, "learning_rate": 3.4041904761904767e-06, "loss": 0.204, "step": 21075 }, { "epoch": 5.626666666666667, "grad_norm": 8.431736946105957, "learning_rate": 3.3946666666666673e-06, "loss": 0.1969, "step": 21100 }, { "epoch": 5.633333333333333, "grad_norm": 8.965051651000977, "learning_rate": 3.3851428571428575e-06, "loss": 0.1962, "step": 21125 }, { "epoch": 5.64, "grad_norm": 7.4085845947265625, "learning_rate": 3.375619047619048e-06, "loss": 0.1812, "step": 21150 }, { "epoch": 5.6466666666666665, "grad_norm": 8.546987533569336, "learning_rate": 3.3660952380952384e-06, "loss": 0.1832, "step": 21175 }, { "epoch": 5.653333333333333, "grad_norm": 8.662524223327637, "learning_rate": 3.356571428571429e-06, "loss": 0.2025, "step": 21200 }, { "epoch": 5.66, "grad_norm": 8.231223106384277, "learning_rate": 3.3470476190476193e-06, "loss": 0.1863, "step": 21225 }, { "epoch": 5.666666666666667, "grad_norm": 8.277003288269043, "learning_rate": 3.33752380952381e-06, "loss": 0.1875, "step": 21250 }, { "epoch": 5.673333333333334, "grad_norm": 8.838936805725098, "learning_rate": 3.328e-06, "loss": 0.1983, "step": 21275 }, { "epoch": 5.68, "grad_norm": 7.994117259979248, "learning_rate": 3.318476190476191e-06, "loss": 0.1853, "step": 21300 }, { "epoch": 5.6866666666666665, "grad_norm": 7.3896918296813965, "learning_rate": 3.308952380952381e-06, "loss": 0.1851, "step": 21325 }, { "epoch": 5.693333333333333, "grad_norm": 10.905793190002441, "learning_rate": 3.2994285714285717e-06, "loss": 0.1871, "step": 21350 }, { "epoch": 5.7, "grad_norm": 7.946938991546631, "learning_rate": 3.289904761904762e-06, "loss": 0.2052, "step": 21375 }, { "epoch": 5.706666666666667, "grad_norm": 8.700292587280273, "learning_rate": 3.2803809523809525e-06, "loss": 0.1943, "step": 21400 }, { "epoch": 5.713333333333333, "grad_norm": 7.937422275543213, "learning_rate": 3.270857142857143e-06, "loss": 0.1728, "step": 21425 }, { "epoch": 5.72, "grad_norm": 10.516088485717773, "learning_rate": 3.2613333333333334e-06, "loss": 0.1976, "step": 21450 }, { "epoch": 5.726666666666667, "grad_norm": 8.253716468811035, "learning_rate": 3.2518095238095245e-06, "loss": 0.2047, "step": 21475 }, { "epoch": 5.733333333333333, "grad_norm": 8.951969146728516, "learning_rate": 3.2422857142857143e-06, "loss": 0.1843, "step": 21500 }, { "epoch": 5.74, "grad_norm": 7.691692352294922, "learning_rate": 3.2327619047619054e-06, "loss": 0.1839, "step": 21525 }, { "epoch": 5.746666666666667, "grad_norm": 7.372745037078857, "learning_rate": 3.2232380952380956e-06, "loss": 0.1916, "step": 21550 }, { "epoch": 5.753333333333333, "grad_norm": 9.27130126953125, "learning_rate": 3.2137142857142862e-06, "loss": 0.1902, "step": 21575 }, { "epoch": 5.76, "grad_norm": 7.297758102416992, "learning_rate": 3.2041904761904765e-06, "loss": 0.2019, "step": 21600 }, { "epoch": 5.766666666666667, "grad_norm": 8.428813934326172, "learning_rate": 3.194666666666667e-06, "loss": 0.202, "step": 21625 }, { "epoch": 5.773333333333333, "grad_norm": 7.583559989929199, "learning_rate": 3.1851428571428573e-06, "loss": 0.1959, "step": 21650 }, { "epoch": 5.78, "grad_norm": 8.059623718261719, "learning_rate": 3.175619047619048e-06, "loss": 0.1851, "step": 21675 }, { "epoch": 5.786666666666667, "grad_norm": 7.915032863616943, "learning_rate": 3.166095238095238e-06, "loss": 0.1854, "step": 21700 }, { "epoch": 5.793333333333333, "grad_norm": 8.528736114501953, "learning_rate": 3.156571428571429e-06, "loss": 0.1812, "step": 21725 }, { "epoch": 5.8, "grad_norm": 10.521273612976074, "learning_rate": 3.1470476190476195e-06, "loss": 0.1986, "step": 21750 }, { "epoch": 5.806666666666667, "grad_norm": 9.335277557373047, "learning_rate": 3.1375238095238097e-06, "loss": 0.1924, "step": 21775 }, { "epoch": 5.8133333333333335, "grad_norm": 7.076658248901367, "learning_rate": 3.1280000000000004e-06, "loss": 0.1964, "step": 21800 }, { "epoch": 5.82, "grad_norm": 9.50959587097168, "learning_rate": 3.1184761904761906e-06, "loss": 0.1891, "step": 21825 }, { "epoch": 5.826666666666666, "grad_norm": 7.6551079750061035, "learning_rate": 3.1089523809523812e-06, "loss": 0.2106, "step": 21850 }, { "epoch": 5.833333333333333, "grad_norm": 7.517979145050049, "learning_rate": 3.0994285714285715e-06, "loss": 0.2126, "step": 21875 }, { "epoch": 5.84, "grad_norm": 10.255593299865723, "learning_rate": 3.089904761904762e-06, "loss": 0.2052, "step": 21900 }, { "epoch": 5.846666666666667, "grad_norm": 7.181977272033691, "learning_rate": 3.0803809523809523e-06, "loss": 0.1808, "step": 21925 }, { "epoch": 5.8533333333333335, "grad_norm": 8.357507705688477, "learning_rate": 3.070857142857143e-06, "loss": 0.1944, "step": 21950 }, { "epoch": 5.86, "grad_norm": 11.123058319091797, "learning_rate": 3.0613333333333332e-06, "loss": 0.1945, "step": 21975 }, { "epoch": 5.866666666666667, "grad_norm": 8.375112533569336, "learning_rate": 3.0518095238095243e-06, "loss": 0.1893, "step": 22000 }, { "epoch": 5.873333333333333, "grad_norm": 8.076088905334473, "learning_rate": 3.042285714285714e-06, "loss": 0.1836, "step": 22025 }, { "epoch": 5.88, "grad_norm": 10.436391830444336, "learning_rate": 3.032761904761905e-06, "loss": 0.1935, "step": 22050 }, { "epoch": 5.886666666666667, "grad_norm": 13.06091022491455, "learning_rate": 3.023238095238096e-06, "loss": 0.1946, "step": 22075 }, { "epoch": 5.8933333333333335, "grad_norm": 7.680747985839844, "learning_rate": 3.013714285714286e-06, "loss": 0.189, "step": 22100 }, { "epoch": 5.9, "grad_norm": 11.475180625915527, "learning_rate": 3.0041904761904767e-06, "loss": 0.1748, "step": 22125 }, { "epoch": 5.906666666666666, "grad_norm": 9.59606647491455, "learning_rate": 2.994666666666667e-06, "loss": 0.1963, "step": 22150 }, { "epoch": 5.913333333333333, "grad_norm": 8.41147232055664, "learning_rate": 2.9851428571428576e-06, "loss": 0.1912, "step": 22175 }, { "epoch": 5.92, "grad_norm": 7.506119728088379, "learning_rate": 2.9756190476190478e-06, "loss": 0.1888, "step": 22200 }, { "epoch": 5.926666666666667, "grad_norm": 8.978005409240723, "learning_rate": 2.9660952380952384e-06, "loss": 0.1987, "step": 22225 }, { "epoch": 5.933333333333334, "grad_norm": 8.837438583374023, "learning_rate": 2.9565714285714287e-06, "loss": 0.1918, "step": 22250 }, { "epoch": 5.9399999999999995, "grad_norm": 8.393951416015625, "learning_rate": 2.9470476190476193e-06, "loss": 0.1781, "step": 22275 }, { "epoch": 5.946666666666666, "grad_norm": 8.654340744018555, "learning_rate": 2.9375238095238095e-06, "loss": 0.1747, "step": 22300 }, { "epoch": 5.953333333333333, "grad_norm": 8.139304161071777, "learning_rate": 2.928e-06, "loss": 0.1792, "step": 22325 }, { "epoch": 5.96, "grad_norm": 14.317983627319336, "learning_rate": 2.9184761904761904e-06, "loss": 0.1902, "step": 22350 }, { "epoch": 5.966666666666667, "grad_norm": 7.7661662101745605, "learning_rate": 2.908952380952381e-06, "loss": 0.1904, "step": 22375 }, { "epoch": 5.973333333333334, "grad_norm": 9.177440643310547, "learning_rate": 2.899428571428572e-06, "loss": 0.1784, "step": 22400 }, { "epoch": 5.98, "grad_norm": 6.804928779602051, "learning_rate": 2.889904761904762e-06, "loss": 0.1805, "step": 22425 }, { "epoch": 5.986666666666666, "grad_norm": 8.108747482299805, "learning_rate": 2.880380952380953e-06, "loss": 0.1894, "step": 22450 }, { "epoch": 5.993333333333333, "grad_norm": 7.44144344329834, "learning_rate": 2.8708571428571432e-06, "loss": 0.1964, "step": 22475 }, { "epoch": 6.0, "grad_norm": 9.638704299926758, "learning_rate": 2.861333333333334e-06, "loss": 0.1983, "step": 22500 }, { "epoch": 6.0, "eval_cer": 27.892588934647712, "eval_loss": 0.4687243700027466, "eval_runtime": 2355.1984, "eval_samples_per_second": 2.123, "eval_steps_per_second": 0.265, "step": 22500 }, { "epoch": 6.006666666666667, "grad_norm": 5.722045421600342, "learning_rate": 2.851809523809524e-06, "loss": 0.1099, "step": 22525 }, { "epoch": 6.013333333333334, "grad_norm": 6.789523124694824, "learning_rate": 2.8422857142857147e-06, "loss": 0.1154, "step": 22550 }, { "epoch": 6.02, "grad_norm": 6.756158828735352, "learning_rate": 2.832761904761905e-06, "loss": 0.1077, "step": 22575 }, { "epoch": 6.026666666666666, "grad_norm": 6.8635735511779785, "learning_rate": 2.8232380952380956e-06, "loss": 0.1213, "step": 22600 }, { "epoch": 6.033333333333333, "grad_norm": 5.693889617919922, "learning_rate": 2.813714285714286e-06, "loss": 0.102, "step": 22625 }, { "epoch": 6.04, "grad_norm": 5.6419997215271, "learning_rate": 2.8045714285714287e-06, "loss": 0.1193, "step": 22650 }, { "epoch": 6.046666666666667, "grad_norm": 7.401430130004883, "learning_rate": 2.7950476190476193e-06, "loss": 0.1127, "step": 22675 }, { "epoch": 6.053333333333334, "grad_norm": 5.301380157470703, "learning_rate": 2.7855238095238095e-06, "loss": 0.1129, "step": 22700 }, { "epoch": 6.06, "grad_norm": 6.625229835510254, "learning_rate": 2.776e-06, "loss": 0.13, "step": 22725 }, { "epoch": 6.066666666666666, "grad_norm": 8.927268028259277, "learning_rate": 2.7664761904761904e-06, "loss": 0.114, "step": 22750 }, { "epoch": 6.073333333333333, "grad_norm": 5.606837272644043, "learning_rate": 2.756952380952381e-06, "loss": 0.1198, "step": 22775 }, { "epoch": 6.08, "grad_norm": 6.711589336395264, "learning_rate": 2.7474285714285713e-06, "loss": 0.1236, "step": 22800 }, { "epoch": 6.086666666666667, "grad_norm": 8.326858520507812, "learning_rate": 2.7379047619047624e-06, "loss": 0.1111, "step": 22825 }, { "epoch": 6.093333333333334, "grad_norm": 6.260118007659912, "learning_rate": 2.728380952380952e-06, "loss": 0.1031, "step": 22850 }, { "epoch": 6.1, "grad_norm": 7.653702259063721, "learning_rate": 2.7188571428571432e-06, "loss": 0.1349, "step": 22875 }, { "epoch": 6.1066666666666665, "grad_norm": 6.40508508682251, "learning_rate": 2.709333333333334e-06, "loss": 0.1131, "step": 22900 }, { "epoch": 6.113333333333333, "grad_norm": 4.399438381195068, "learning_rate": 2.699809523809524e-06, "loss": 0.1277, "step": 22925 }, { "epoch": 6.12, "grad_norm": 4.890989780426025, "learning_rate": 2.6902857142857147e-06, "loss": 0.1155, "step": 22950 }, { "epoch": 6.126666666666667, "grad_norm": 7.25638484954834, "learning_rate": 2.680761904761905e-06, "loss": 0.1236, "step": 22975 }, { "epoch": 6.133333333333334, "grad_norm": 6.668306827545166, "learning_rate": 2.6712380952380956e-06, "loss": 0.1117, "step": 23000 }, { "epoch": 6.14, "grad_norm": 8.329089164733887, "learning_rate": 2.661714285714286e-06, "loss": 0.1147, "step": 23025 }, { "epoch": 6.1466666666666665, "grad_norm": 5.929948806762695, "learning_rate": 2.6521904761904765e-06, "loss": 0.1329, "step": 23050 }, { "epoch": 6.153333333333333, "grad_norm": 6.074530124664307, "learning_rate": 2.6426666666666667e-06, "loss": 0.1038, "step": 23075 }, { "epoch": 6.16, "grad_norm": 6.899518013000488, "learning_rate": 2.6331428571428574e-06, "loss": 0.1072, "step": 23100 }, { "epoch": 6.166666666666667, "grad_norm": 6.963280200958252, "learning_rate": 2.6236190476190476e-06, "loss": 0.1224, "step": 23125 }, { "epoch": 6.173333333333334, "grad_norm": 8.042274475097656, "learning_rate": 2.6140952380952382e-06, "loss": 0.1107, "step": 23150 }, { "epoch": 6.18, "grad_norm": 7.621433258056641, "learning_rate": 2.6045714285714285e-06, "loss": 0.1228, "step": 23175 }, { "epoch": 6.1866666666666665, "grad_norm": 8.323995590209961, "learning_rate": 2.595047619047619e-06, "loss": 0.1249, "step": 23200 }, { "epoch": 6.193333333333333, "grad_norm": 4.942937850952148, "learning_rate": 2.58552380952381e-06, "loss": 0.1112, "step": 23225 }, { "epoch": 6.2, "grad_norm": 6.5894670486450195, "learning_rate": 2.576e-06, "loss": 0.1231, "step": 23250 }, { "epoch": 6.206666666666667, "grad_norm": 6.351678848266602, "learning_rate": 2.566476190476191e-06, "loss": 0.1282, "step": 23275 }, { "epoch": 6.213333333333333, "grad_norm": 5.763071060180664, "learning_rate": 2.5569523809523813e-06, "loss": 0.1124, "step": 23300 }, { "epoch": 6.22, "grad_norm": 5.300410270690918, "learning_rate": 2.547428571428572e-06, "loss": 0.1101, "step": 23325 }, { "epoch": 6.226666666666667, "grad_norm": 6.597843170166016, "learning_rate": 2.537904761904762e-06, "loss": 0.1093, "step": 23350 }, { "epoch": 6.233333333333333, "grad_norm": 7.169095993041992, "learning_rate": 2.528380952380953e-06, "loss": 0.1144, "step": 23375 }, { "epoch": 6.24, "grad_norm": 6.9794745445251465, "learning_rate": 2.518857142857143e-06, "loss": 0.11, "step": 23400 }, { "epoch": 6.246666666666667, "grad_norm": 6.460284233093262, "learning_rate": 2.5093333333333337e-06, "loss": 0.1108, "step": 23425 }, { "epoch": 6.253333333333333, "grad_norm": 9.066420555114746, "learning_rate": 2.499809523809524e-06, "loss": 0.1191, "step": 23450 }, { "epoch": 6.26, "grad_norm": 4.575389385223389, "learning_rate": 2.4902857142857145e-06, "loss": 0.1054, "step": 23475 }, { "epoch": 6.266666666666667, "grad_norm": 5.2809600830078125, "learning_rate": 2.4807619047619048e-06, "loss": 0.1149, "step": 23500 }, { "epoch": 6.273333333333333, "grad_norm": 5.152400970458984, "learning_rate": 2.4712380952380954e-06, "loss": 0.1216, "step": 23525 }, { "epoch": 6.28, "grad_norm": 5.567336559295654, "learning_rate": 2.461714285714286e-06, "loss": 0.1272, "step": 23550 }, { "epoch": 6.286666666666667, "grad_norm": 5.979259490966797, "learning_rate": 2.4521904761904763e-06, "loss": 0.123, "step": 23575 }, { "epoch": 6.293333333333333, "grad_norm": 5.216766357421875, "learning_rate": 2.442666666666667e-06, "loss": 0.121, "step": 23600 }, { "epoch": 6.3, "grad_norm": 7.577014446258545, "learning_rate": 2.433142857142857e-06, "loss": 0.1125, "step": 23625 }, { "epoch": 6.306666666666667, "grad_norm": 7.867519855499268, "learning_rate": 2.423619047619048e-06, "loss": 0.1065, "step": 23650 }, { "epoch": 6.3133333333333335, "grad_norm": 5.103663921356201, "learning_rate": 2.414095238095238e-06, "loss": 0.1113, "step": 23675 }, { "epoch": 6.32, "grad_norm": 6.0588908195495605, "learning_rate": 2.4045714285714287e-06, "loss": 0.1142, "step": 23700 }, { "epoch": 6.326666666666666, "grad_norm": 6.716763496398926, "learning_rate": 2.3950476190476193e-06, "loss": 0.1112, "step": 23725 }, { "epoch": 6.333333333333333, "grad_norm": 5.831800937652588, "learning_rate": 2.38552380952381e-06, "loss": 0.1103, "step": 23750 }, { "epoch": 6.34, "grad_norm": 7.143383026123047, "learning_rate": 2.376e-06, "loss": 0.1191, "step": 23775 }, { "epoch": 6.346666666666667, "grad_norm": 5.922708988189697, "learning_rate": 2.366476190476191e-06, "loss": 0.124, "step": 23800 }, { "epoch": 6.3533333333333335, "grad_norm": 4.827914714813232, "learning_rate": 2.356952380952381e-06, "loss": 0.1122, "step": 23825 }, { "epoch": 6.36, "grad_norm": 6.279324531555176, "learning_rate": 2.3474285714285717e-06, "loss": 0.1278, "step": 23850 }, { "epoch": 6.366666666666666, "grad_norm": 5.489871978759766, "learning_rate": 2.337904761904762e-06, "loss": 0.1081, "step": 23875 }, { "epoch": 6.373333333333333, "grad_norm": 9.508371353149414, "learning_rate": 2.3283809523809526e-06, "loss": 0.1128, "step": 23900 }, { "epoch": 6.38, "grad_norm": 6.069948673248291, "learning_rate": 2.318857142857143e-06, "loss": 0.11, "step": 23925 }, { "epoch": 6.386666666666667, "grad_norm": 6.3236165046691895, "learning_rate": 2.3093333333333335e-06, "loss": 0.1122, "step": 23950 }, { "epoch": 6.3933333333333335, "grad_norm": 6.360445499420166, "learning_rate": 2.2998095238095237e-06, "loss": 0.1204, "step": 23975 }, { "epoch": 6.4, "grad_norm": 6.828256607055664, "learning_rate": 2.2902857142857143e-06, "loss": 0.1253, "step": 24000 }, { "epoch": 6.406666666666666, "grad_norm": 5.452310562133789, "learning_rate": 2.280761904761905e-06, "loss": 0.1113, "step": 24025 }, { "epoch": 6.413333333333333, "grad_norm": 7.624669075012207, "learning_rate": 2.2712380952380956e-06, "loss": 0.1038, "step": 24050 }, { "epoch": 6.42, "grad_norm": 7.238602638244629, "learning_rate": 2.261714285714286e-06, "loss": 0.1181, "step": 24075 }, { "epoch": 6.426666666666667, "grad_norm": 4.889372825622559, "learning_rate": 2.2521904761904765e-06, "loss": 0.1158, "step": 24100 }, { "epoch": 6.433333333333334, "grad_norm": 5.954528331756592, "learning_rate": 2.2426666666666667e-06, "loss": 0.1217, "step": 24125 }, { "epoch": 6.44, "grad_norm": 5.931361198425293, "learning_rate": 2.2331428571428574e-06, "loss": 0.1108, "step": 24150 }, { "epoch": 6.446666666666666, "grad_norm": 7.241476535797119, "learning_rate": 2.2236190476190476e-06, "loss": 0.1112, "step": 24175 }, { "epoch": 6.453333333333333, "grad_norm": 5.826569080352783, "learning_rate": 2.2140952380952383e-06, "loss": 0.12, "step": 24200 }, { "epoch": 6.46, "grad_norm": 6.789943695068359, "learning_rate": 2.204571428571429e-06, "loss": 0.1147, "step": 24225 }, { "epoch": 6.466666666666667, "grad_norm": 11.31478500366211, "learning_rate": 2.195047619047619e-06, "loss": 0.1139, "step": 24250 }, { "epoch": 6.473333333333334, "grad_norm": 6.293546676635742, "learning_rate": 2.1855238095238098e-06, "loss": 0.1314, "step": 24275 }, { "epoch": 6.48, "grad_norm": 6.773628234863281, "learning_rate": 2.176e-06, "loss": 0.1225, "step": 24300 }, { "epoch": 6.486666666666666, "grad_norm": 6.926046371459961, "learning_rate": 2.1664761904761907e-06, "loss": 0.1191, "step": 24325 }, { "epoch": 6.493333333333333, "grad_norm": 7.084286689758301, "learning_rate": 2.1569523809523813e-06, "loss": 0.1146, "step": 24350 }, { "epoch": 6.5, "grad_norm": 6.511606216430664, "learning_rate": 2.1474285714285715e-06, "loss": 0.1181, "step": 24375 }, { "epoch": 6.506666666666667, "grad_norm": 7.55068302154541, "learning_rate": 2.137904761904762e-06, "loss": 0.1022, "step": 24400 }, { "epoch": 6.513333333333334, "grad_norm": 6.0490641593933105, "learning_rate": 2.1283809523809524e-06, "loss": 0.1042, "step": 24425 }, { "epoch": 6.52, "grad_norm": 7.052913665771484, "learning_rate": 2.118857142857143e-06, "loss": 0.1123, "step": 24450 }, { "epoch": 6.526666666666666, "grad_norm": 5.358462810516357, "learning_rate": 2.1093333333333337e-06, "loss": 0.1256, "step": 24475 }, { "epoch": 6.533333333333333, "grad_norm": 6.348783493041992, "learning_rate": 2.099809523809524e-06, "loss": 0.1049, "step": 24500 }, { "epoch": 6.54, "grad_norm": 7.6549577713012695, "learning_rate": 2.0902857142857146e-06, "loss": 0.1173, "step": 24525 }, { "epoch": 6.546666666666667, "grad_norm": 6.709286212921143, "learning_rate": 2.080761904761905e-06, "loss": 0.1191, "step": 24550 }, { "epoch": 6.553333333333334, "grad_norm": 4.322198867797852, "learning_rate": 2.0712380952380954e-06, "loss": 0.107, "step": 24575 }, { "epoch": 6.5600000000000005, "grad_norm": 6.269405841827393, "learning_rate": 2.0617142857142857e-06, "loss": 0.1114, "step": 24600 }, { "epoch": 6.566666666666666, "grad_norm": 5.347322940826416, "learning_rate": 2.0521904761904763e-06, "loss": 0.1299, "step": 24625 }, { "epoch": 6.573333333333333, "grad_norm": 6.101200580596924, "learning_rate": 2.042666666666667e-06, "loss": 0.1166, "step": 24650 }, { "epoch": 6.58, "grad_norm": 8.042967796325684, "learning_rate": 2.0331428571428576e-06, "loss": 0.1183, "step": 24675 }, { "epoch": 6.586666666666667, "grad_norm": 6.081999778747559, "learning_rate": 2.023619047619048e-06, "loss": 0.1095, "step": 24700 }, { "epoch": 6.593333333333334, "grad_norm": 8.015923500061035, "learning_rate": 2.0140952380952385e-06, "loss": 0.1202, "step": 24725 }, { "epoch": 6.6, "grad_norm": 5.340906143188477, "learning_rate": 2.0045714285714287e-06, "loss": 0.1124, "step": 24750 }, { "epoch": 6.6066666666666665, "grad_norm": 5.881411552429199, "learning_rate": 1.9950476190476194e-06, "loss": 0.1039, "step": 24775 }, { "epoch": 6.613333333333333, "grad_norm": 6.291903495788574, "learning_rate": 1.9855238095238096e-06, "loss": 0.1167, "step": 24800 }, { "epoch": 6.62, "grad_norm": 5.612960338592529, "learning_rate": 1.9760000000000002e-06, "loss": 0.1131, "step": 24825 }, { "epoch": 6.626666666666667, "grad_norm": 6.031881332397461, "learning_rate": 1.9664761904761904e-06, "loss": 0.1164, "step": 24850 }, { "epoch": 6.633333333333333, "grad_norm": 5.327901840209961, "learning_rate": 1.956952380952381e-06, "loss": 0.1087, "step": 24875 }, { "epoch": 6.64, "grad_norm": 7.524774074554443, "learning_rate": 1.9474285714285713e-06, "loss": 0.105, "step": 24900 }, { "epoch": 6.6466666666666665, "grad_norm": 6.041378498077393, "learning_rate": 1.937904761904762e-06, "loss": 0.1104, "step": 24925 }, { "epoch": 6.653333333333333, "grad_norm": 5.980814456939697, "learning_rate": 1.9283809523809526e-06, "loss": 0.1114, "step": 24950 }, { "epoch": 6.66, "grad_norm": 6.2435383796691895, "learning_rate": 1.9188571428571433e-06, "loss": 0.1171, "step": 24975 }, { "epoch": 6.666666666666667, "grad_norm": 6.416245937347412, "learning_rate": 1.9093333333333335e-06, "loss": 0.1144, "step": 25000 }, { "epoch": 6.673333333333334, "grad_norm": 7.60042142868042, "learning_rate": 1.8998095238095241e-06, "loss": 0.1052, "step": 25025 }, { "epoch": 6.68, "grad_norm": 6.3034257888793945, "learning_rate": 1.8902857142857146e-06, "loss": 0.1186, "step": 25050 }, { "epoch": 6.6866666666666665, "grad_norm": 6.477570056915283, "learning_rate": 1.880761904761905e-06, "loss": 0.1211, "step": 25075 }, { "epoch": 6.693333333333333, "grad_norm": 7.73776388168335, "learning_rate": 1.8712380952380954e-06, "loss": 0.1146, "step": 25100 }, { "epoch": 6.7, "grad_norm": 6.559999942779541, "learning_rate": 1.8617142857142859e-06, "loss": 0.1277, "step": 25125 }, { "epoch": 6.706666666666667, "grad_norm": 7.6131110191345215, "learning_rate": 1.8521904761904763e-06, "loss": 0.1103, "step": 25150 }, { "epoch": 6.713333333333333, "grad_norm": 5.912271022796631, "learning_rate": 1.8426666666666668e-06, "loss": 0.1074, "step": 25175 }, { "epoch": 6.72, "grad_norm": 7.040017127990723, "learning_rate": 1.8331428571428572e-06, "loss": 0.1059, "step": 25200 }, { "epoch": 6.726666666666667, "grad_norm": 7.310871124267578, "learning_rate": 1.8236190476190476e-06, "loss": 0.1207, "step": 25225 }, { "epoch": 6.733333333333333, "grad_norm": 6.398301601409912, "learning_rate": 1.814095238095238e-06, "loss": 0.1078, "step": 25250 }, { "epoch": 6.74, "grad_norm": 6.454195022583008, "learning_rate": 1.8045714285714285e-06, "loss": 0.108, "step": 25275 }, { "epoch": 6.746666666666667, "grad_norm": 8.040580749511719, "learning_rate": 1.7950476190476194e-06, "loss": 0.0984, "step": 25300 }, { "epoch": 6.753333333333333, "grad_norm": 6.958987236022949, "learning_rate": 1.7855238095238098e-06, "loss": 0.1252, "step": 25325 }, { "epoch": 6.76, "grad_norm": 6.555928707122803, "learning_rate": 1.7760000000000002e-06, "loss": 0.112, "step": 25350 }, { "epoch": 6.766666666666667, "grad_norm": 7.116520404815674, "learning_rate": 1.7664761904761907e-06, "loss": 0.1266, "step": 25375 }, { "epoch": 6.773333333333333, "grad_norm": 7.179144859313965, "learning_rate": 1.756952380952381e-06, "loss": 0.1146, "step": 25400 }, { "epoch": 6.78, "grad_norm": 6.589530944824219, "learning_rate": 1.7474285714285715e-06, "loss": 0.1096, "step": 25425 }, { "epoch": 6.786666666666667, "grad_norm": 5.634346961975098, "learning_rate": 1.737904761904762e-06, "loss": 0.1128, "step": 25450 }, { "epoch": 6.793333333333333, "grad_norm": 7.5817646980285645, "learning_rate": 1.7283809523809524e-06, "loss": 0.1281, "step": 25475 }, { "epoch": 6.8, "grad_norm": 5.969132900238037, "learning_rate": 1.7188571428571429e-06, "loss": 0.1271, "step": 25500 }, { "epoch": 6.806666666666667, "grad_norm": 4.619198322296143, "learning_rate": 1.7093333333333335e-06, "loss": 0.1174, "step": 25525 }, { "epoch": 6.8133333333333335, "grad_norm": 6.057211399078369, "learning_rate": 1.699809523809524e-06, "loss": 0.1146, "step": 25550 }, { "epoch": 6.82, "grad_norm": 6.871570587158203, "learning_rate": 1.6902857142857144e-06, "loss": 0.1175, "step": 25575 }, { "epoch": 6.826666666666666, "grad_norm": 8.394207954406738, "learning_rate": 1.6807619047619048e-06, "loss": 0.1154, "step": 25600 }, { "epoch": 6.833333333333333, "grad_norm": 5.697787284851074, "learning_rate": 1.6712380952380955e-06, "loss": 0.1179, "step": 25625 }, { "epoch": 6.84, "grad_norm": 5.927629470825195, "learning_rate": 1.6617142857142859e-06, "loss": 0.1218, "step": 25650 }, { "epoch": 6.846666666666667, "grad_norm": 7.097720623016357, "learning_rate": 1.6521904761904763e-06, "loss": 0.1065, "step": 25675 }, { "epoch": 6.8533333333333335, "grad_norm": 6.379590034484863, "learning_rate": 1.6426666666666668e-06, "loss": 0.1134, "step": 25700 }, { "epoch": 6.86, "grad_norm": 8.527743339538574, "learning_rate": 1.6331428571428574e-06, "loss": 0.1201, "step": 25725 }, { "epoch": 6.866666666666667, "grad_norm": 6.303502559661865, "learning_rate": 1.6236190476190478e-06, "loss": 0.1109, "step": 25750 }, { "epoch": 6.873333333333333, "grad_norm": 6.584486961364746, "learning_rate": 1.6140952380952383e-06, "loss": 0.1125, "step": 25775 }, { "epoch": 6.88, "grad_norm": 5.073254108428955, "learning_rate": 1.6045714285714287e-06, "loss": 0.1075, "step": 25800 }, { "epoch": 6.886666666666667, "grad_norm": 8.733382225036621, "learning_rate": 1.5950476190476192e-06, "loss": 0.1011, "step": 25825 }, { "epoch": 6.8933333333333335, "grad_norm": 5.962101936340332, "learning_rate": 1.5855238095238096e-06, "loss": 0.1094, "step": 25850 }, { "epoch": 6.9, "grad_norm": 6.210373878479004, "learning_rate": 1.576e-06, "loss": 0.1112, "step": 25875 }, { "epoch": 6.906666666666666, "grad_norm": 7.054102420806885, "learning_rate": 1.5664761904761905e-06, "loss": 0.1087, "step": 25900 }, { "epoch": 6.913333333333333, "grad_norm": 6.249921798706055, "learning_rate": 1.5569523809523811e-06, "loss": 0.1131, "step": 25925 }, { "epoch": 6.92, "grad_norm": 7.182193756103516, "learning_rate": 1.5474285714285718e-06, "loss": 0.1222, "step": 25950 }, { "epoch": 6.926666666666667, "grad_norm": 6.640037536621094, "learning_rate": 1.5379047619047622e-06, "loss": 0.1131, "step": 25975 }, { "epoch": 6.933333333333334, "grad_norm": 7.663152694702148, "learning_rate": 1.5283809523809526e-06, "loss": 0.1117, "step": 26000 }, { "epoch": 6.9399999999999995, "grad_norm": 5.420979976654053, "learning_rate": 1.518857142857143e-06, "loss": 0.1182, "step": 26025 }, { "epoch": 6.946666666666666, "grad_norm": 7.000468730926514, "learning_rate": 1.5093333333333335e-06, "loss": 0.1011, "step": 26050 }, { "epoch": 6.953333333333333, "grad_norm": 7.413588047027588, "learning_rate": 1.499809523809524e-06, "loss": 0.1094, "step": 26075 }, { "epoch": 6.96, "grad_norm": 5.946040153503418, "learning_rate": 1.4902857142857144e-06, "loss": 0.1103, "step": 26100 }, { "epoch": 6.966666666666667, "grad_norm": 7.078938007354736, "learning_rate": 1.4807619047619048e-06, "loss": 0.1071, "step": 26125 }, { "epoch": 6.973333333333334, "grad_norm": 6.527420997619629, "learning_rate": 1.4712380952380953e-06, "loss": 0.1074, "step": 26150 }, { "epoch": 6.98, "grad_norm": 5.967912197113037, "learning_rate": 1.4617142857142857e-06, "loss": 0.1238, "step": 26175 }, { "epoch": 6.986666666666666, "grad_norm": 7.706600666046143, "learning_rate": 1.4521904761904761e-06, "loss": 0.1088, "step": 26200 }, { "epoch": 6.993333333333333, "grad_norm": 8.459685325622559, "learning_rate": 1.4426666666666666e-06, "loss": 0.1126, "step": 26225 }, { "epoch": 7.0, "grad_norm": 7.783780097961426, "learning_rate": 1.4331428571428574e-06, "loss": 0.1061, "step": 26250 }, { "epoch": 7.0, "eval_cer": 27.10060935840337, "eval_loss": 0.46288496255874634, "eval_runtime": 2574.2175, "eval_samples_per_second": 1.942, "eval_steps_per_second": 0.243, "step": 26250 }, { "epoch": 7.006666666666667, "grad_norm": 4.739432334899902, "learning_rate": 1.4236190476190479e-06, "loss": 0.084, "step": 26275 }, { "epoch": 7.013333333333334, "grad_norm": 5.090461730957031, "learning_rate": 1.4140952380952383e-06, "loss": 0.067, "step": 26300 }, { "epoch": 7.02, "grad_norm": 5.291606903076172, "learning_rate": 1.4045714285714287e-06, "loss": 0.0733, "step": 26325 }, { "epoch": 7.026666666666666, "grad_norm": 4.417487144470215, "learning_rate": 1.3950476190476192e-06, "loss": 0.0762, "step": 26350 }, { "epoch": 7.033333333333333, "grad_norm": 4.048087120056152, "learning_rate": 1.3855238095238096e-06, "loss": 0.0679, "step": 26375 }, { "epoch": 7.04, "grad_norm": 4.09628438949585, "learning_rate": 1.376e-06, "loss": 0.0752, "step": 26400 }, { "epoch": 7.046666666666667, "grad_norm": 4.2131547927856445, "learning_rate": 1.3664761904761905e-06, "loss": 0.0714, "step": 26425 }, { "epoch": 7.053333333333334, "grad_norm": 5.7815070152282715, "learning_rate": 1.3569523809523811e-06, "loss": 0.0657, "step": 26450 }, { "epoch": 7.06, "grad_norm": 5.5578460693359375, "learning_rate": 1.3474285714285716e-06, "loss": 0.0751, "step": 26475 }, { "epoch": 7.066666666666666, "grad_norm": 5.678042888641357, "learning_rate": 1.337904761904762e-06, "loss": 0.0703, "step": 26500 }, { "epoch": 7.073333333333333, "grad_norm": 3.9984798431396484, "learning_rate": 1.3283809523809524e-06, "loss": 0.0661, "step": 26525 }, { "epoch": 7.08, "grad_norm": 5.413177967071533, "learning_rate": 1.3188571428571429e-06, "loss": 0.0726, "step": 26550 }, { "epoch": 7.086666666666667, "grad_norm": 6.001191139221191, "learning_rate": 1.3093333333333335e-06, "loss": 0.0721, "step": 26575 }, { "epoch": 7.093333333333334, "grad_norm": 4.195793151855469, "learning_rate": 1.299809523809524e-06, "loss": 0.0654, "step": 26600 }, { "epoch": 7.1, "grad_norm": 4.22690486907959, "learning_rate": 1.2902857142857144e-06, "loss": 0.0799, "step": 26625 }, { "epoch": 7.1066666666666665, "grad_norm": 6.748917579650879, "learning_rate": 1.2807619047619048e-06, "loss": 0.0791, "step": 26650 }, { "epoch": 7.113333333333333, "grad_norm": 3.2695586681365967, "learning_rate": 1.2712380952380955e-06, "loss": 0.0588, "step": 26675 }, { "epoch": 7.12, "grad_norm": 5.440263271331787, "learning_rate": 1.262095238095238e-06, "loss": 0.067, "step": 26700 }, { "epoch": 7.126666666666667, "grad_norm": 6.221658229827881, "learning_rate": 1.2525714285714285e-06, "loss": 0.0666, "step": 26725 }, { "epoch": 7.133333333333334, "grad_norm": 4.188570499420166, "learning_rate": 1.2430476190476192e-06, "loss": 0.0692, "step": 26750 }, { "epoch": 7.14, "grad_norm": 4.0853271484375, "learning_rate": 1.2335238095238096e-06, "loss": 0.0687, "step": 26775 }, { "epoch": 7.1466666666666665, "grad_norm": 3.3896591663360596, "learning_rate": 1.224e-06, "loss": 0.0677, "step": 26800 }, { "epoch": 7.153333333333333, "grad_norm": 3.2700815200805664, "learning_rate": 1.2144761904761907e-06, "loss": 0.0662, "step": 26825 }, { "epoch": 7.16, "grad_norm": 5.643212795257568, "learning_rate": 1.2049523809523811e-06, "loss": 0.0765, "step": 26850 }, { "epoch": 7.166666666666667, "grad_norm": 4.7386674880981445, "learning_rate": 1.1954285714285716e-06, "loss": 0.0661, "step": 26875 }, { "epoch": 7.173333333333334, "grad_norm": 3.4530842304229736, "learning_rate": 1.185904761904762e-06, "loss": 0.0737, "step": 26900 }, { "epoch": 7.18, "grad_norm": 4.330809593200684, "learning_rate": 1.1763809523809524e-06, "loss": 0.0729, "step": 26925 }, { "epoch": 7.1866666666666665, "grad_norm": 3.8091094493865967, "learning_rate": 1.1668571428571429e-06, "loss": 0.0752, "step": 26950 }, { "epoch": 7.193333333333333, "grad_norm": 6.064853668212891, "learning_rate": 1.1573333333333333e-06, "loss": 0.0723, "step": 26975 }, { "epoch": 7.2, "grad_norm": 4.778347969055176, "learning_rate": 1.147809523809524e-06, "loss": 0.068, "step": 27000 }, { "epoch": 7.206666666666667, "grad_norm": 4.046606540679932, "learning_rate": 1.1382857142857144e-06, "loss": 0.0671, "step": 27025 }, { "epoch": 7.213333333333333, "grad_norm": 6.023231029510498, "learning_rate": 1.1287619047619048e-06, "loss": 0.0704, "step": 27050 }, { "epoch": 7.22, "grad_norm": 9.644322395324707, "learning_rate": 1.1192380952380953e-06, "loss": 0.0687, "step": 27075 }, { "epoch": 7.226666666666667, "grad_norm": 4.420100212097168, "learning_rate": 1.1097142857142857e-06, "loss": 0.0751, "step": 27100 }, { "epoch": 7.233333333333333, "grad_norm": 4.766200065612793, "learning_rate": 1.1001904761904761e-06, "loss": 0.068, "step": 27125 }, { "epoch": 7.24, "grad_norm": 4.553622722625732, "learning_rate": 1.0906666666666668e-06, "loss": 0.0637, "step": 27150 }, { "epoch": 7.246666666666667, "grad_norm": 3.8219962120056152, "learning_rate": 1.0811428571428572e-06, "loss": 0.0795, "step": 27175 }, { "epoch": 7.253333333333333, "grad_norm": 4.333340644836426, "learning_rate": 1.0716190476190477e-06, "loss": 0.0747, "step": 27200 }, { "epoch": 7.26, "grad_norm": 21.766653060913086, "learning_rate": 1.0620952380952381e-06, "loss": 0.0698, "step": 27225 }, { "epoch": 7.266666666666667, "grad_norm": 5.9520087242126465, "learning_rate": 1.0525714285714285e-06, "loss": 0.0804, "step": 27250 }, { "epoch": 7.273333333333333, "grad_norm": 4.78228235244751, "learning_rate": 1.0430476190476192e-06, "loss": 0.0718, "step": 27275 }, { "epoch": 7.28, "grad_norm": 4.524109840393066, "learning_rate": 1.0335238095238096e-06, "loss": 0.0629, "step": 27300 }, { "epoch": 7.286666666666667, "grad_norm": 4.281645774841309, "learning_rate": 1.024e-06, "loss": 0.0743, "step": 27325 }, { "epoch": 7.293333333333333, "grad_norm": 5.478546142578125, "learning_rate": 1.0144761904761905e-06, "loss": 0.0766, "step": 27350 }, { "epoch": 7.3, "grad_norm": 4.724479675292969, "learning_rate": 1.004952380952381e-06, "loss": 0.0693, "step": 27375 }, { "epoch": 7.306666666666667, "grad_norm": 4.720010757446289, "learning_rate": 9.954285714285716e-07, "loss": 0.0679, "step": 27400 }, { "epoch": 7.3133333333333335, "grad_norm": 3.808959722518921, "learning_rate": 9.85904761904762e-07, "loss": 0.0762, "step": 27425 }, { "epoch": 7.32, "grad_norm": 4.9650139808654785, "learning_rate": 9.763809523809525e-07, "loss": 0.0723, "step": 27450 }, { "epoch": 7.326666666666666, "grad_norm": 4.542954921722412, "learning_rate": 9.668571428571429e-07, "loss": 0.0724, "step": 27475 }, { "epoch": 7.333333333333333, "grad_norm": 6.316661834716797, "learning_rate": 9.573333333333335e-07, "loss": 0.0712, "step": 27500 }, { "epoch": 7.34, "grad_norm": 3.9207444190979004, "learning_rate": 9.478095238095239e-07, "loss": 0.0707, "step": 27525 }, { "epoch": 7.346666666666667, "grad_norm": 5.520655632019043, "learning_rate": 9.382857142857143e-07, "loss": 0.0658, "step": 27550 }, { "epoch": 7.3533333333333335, "grad_norm": 5.763692855834961, "learning_rate": 9.287619047619049e-07, "loss": 0.0674, "step": 27575 }, { "epoch": 7.36, "grad_norm": 5.819888591766357, "learning_rate": 9.192380952380953e-07, "loss": 0.0697, "step": 27600 }, { "epoch": 7.366666666666666, "grad_norm": 5.048576831817627, "learning_rate": 9.097142857142858e-07, "loss": 0.0768, "step": 27625 }, { "epoch": 7.373333333333333, "grad_norm": 5.81150484085083, "learning_rate": 9.001904761904763e-07, "loss": 0.0711, "step": 27650 }, { "epoch": 7.38, "grad_norm": 5.257218837738037, "learning_rate": 8.906666666666668e-07, "loss": 0.0668, "step": 27675 }, { "epoch": 7.386666666666667, "grad_norm": 2.480001926422119, "learning_rate": 8.811428571428572e-07, "loss": 0.0717, "step": 27700 }, { "epoch": 7.3933333333333335, "grad_norm": 3.3549604415893555, "learning_rate": 8.716190476190477e-07, "loss": 0.0762, "step": 27725 }, { "epoch": 7.4, "grad_norm": 3.9839773178100586, "learning_rate": 8.620952380952381e-07, "loss": 0.069, "step": 27750 }, { "epoch": 7.406666666666666, "grad_norm": 5.174084186553955, "learning_rate": 8.525714285714286e-07, "loss": 0.0656, "step": 27775 }, { "epoch": 7.413333333333333, "grad_norm": 4.026200294494629, "learning_rate": 8.430476190476192e-07, "loss": 0.0647, "step": 27800 }, { "epoch": 7.42, "grad_norm": 4.400787353515625, "learning_rate": 8.335238095238096e-07, "loss": 0.0677, "step": 27825 }, { "epoch": 7.426666666666667, "grad_norm": 4.919763088226318, "learning_rate": 8.240000000000001e-07, "loss": 0.068, "step": 27850 }, { "epoch": 7.433333333333334, "grad_norm": 5.955484390258789, "learning_rate": 8.144761904761905e-07, "loss": 0.0632, "step": 27875 }, { "epoch": 7.44, "grad_norm": 3.98930025100708, "learning_rate": 8.049523809523809e-07, "loss": 0.0694, "step": 27900 }, { "epoch": 7.446666666666666, "grad_norm": 6.459877967834473, "learning_rate": 7.954285714285715e-07, "loss": 0.0586, "step": 27925 }, { "epoch": 7.453333333333333, "grad_norm": 4.810683250427246, "learning_rate": 7.85904761904762e-07, "loss": 0.063, "step": 27950 }, { "epoch": 7.46, "grad_norm": 4.171402454376221, "learning_rate": 7.763809523809525e-07, "loss": 0.0702, "step": 27975 }, { "epoch": 7.466666666666667, "grad_norm": 4.363141059875488, "learning_rate": 7.668571428571429e-07, "loss": 0.0709, "step": 28000 }, { "epoch": 7.473333333333334, "grad_norm": 4.186011791229248, "learning_rate": 7.573333333333334e-07, "loss": 0.0665, "step": 28025 }, { "epoch": 7.48, "grad_norm": 4.698369979858398, "learning_rate": 7.478095238095239e-07, "loss": 0.0644, "step": 28050 }, { "epoch": 7.486666666666666, "grad_norm": 4.905081748962402, "learning_rate": 7.382857142857143e-07, "loss": 0.0592, "step": 28075 }, { "epoch": 7.493333333333333, "grad_norm": 5.4434123039245605, "learning_rate": 7.287619047619048e-07, "loss": 0.0668, "step": 28100 }, { "epoch": 7.5, "grad_norm": 4.985413551330566, "learning_rate": 7.192380952380953e-07, "loss": 0.0678, "step": 28125 }, { "epoch": 7.506666666666667, "grad_norm": 4.4147443771362305, "learning_rate": 7.097142857142858e-07, "loss": 0.0625, "step": 28150 }, { "epoch": 7.513333333333334, "grad_norm": 3.3505895137786865, "learning_rate": 7.001904761904763e-07, "loss": 0.0627, "step": 28175 }, { "epoch": 7.52, "grad_norm": 4.708634853363037, "learning_rate": 6.906666666666667e-07, "loss": 0.073, "step": 28200 }, { "epoch": 7.526666666666666, "grad_norm": 4.398185729980469, "learning_rate": 6.811428571428571e-07, "loss": 0.0645, "step": 28225 }, { "epoch": 7.533333333333333, "grad_norm": 5.4616312980651855, "learning_rate": 6.716190476190476e-07, "loss": 0.0661, "step": 28250 }, { "epoch": 7.54, "grad_norm": 5.558444976806641, "learning_rate": 6.620952380952382e-07, "loss": 0.0732, "step": 28275 }, { "epoch": 7.546666666666667, "grad_norm": 3.589510679244995, "learning_rate": 6.525714285714287e-07, "loss": 0.0734, "step": 28300 }, { "epoch": 7.553333333333334, "grad_norm": 4.745849609375, "learning_rate": 6.430476190476191e-07, "loss": 0.0673, "step": 28325 }, { "epoch": 7.5600000000000005, "grad_norm": 4.107128143310547, "learning_rate": 6.335238095238095e-07, "loss": 0.076, "step": 28350 }, { "epoch": 7.566666666666666, "grad_norm": 3.7996790409088135, "learning_rate": 6.24e-07, "loss": 0.0632, "step": 28375 }, { "epoch": 7.573333333333333, "grad_norm": 4.746378421783447, "learning_rate": 6.144761904761905e-07, "loss": 0.0688, "step": 28400 }, { "epoch": 7.58, "grad_norm": 5.849454402923584, "learning_rate": 6.04952380952381e-07, "loss": 0.0725, "step": 28425 }, { "epoch": 7.586666666666667, "grad_norm": 5.431219100952148, "learning_rate": 5.954285714285715e-07, "loss": 0.0747, "step": 28450 }, { "epoch": 7.593333333333334, "grad_norm": 3.5589330196380615, "learning_rate": 5.859047619047619e-07, "loss": 0.0768, "step": 28475 }, { "epoch": 7.6, "grad_norm": 4.7767791748046875, "learning_rate": 5.763809523809525e-07, "loss": 0.0718, "step": 28500 }, { "epoch": 7.6066666666666665, "grad_norm": 5.3300652503967285, "learning_rate": 5.668571428571429e-07, "loss": 0.0664, "step": 28525 }, { "epoch": 7.613333333333333, "grad_norm": 3.8338193893432617, "learning_rate": 5.573333333333335e-07, "loss": 0.0634, "step": 28550 }, { "epoch": 7.62, "grad_norm": 3.6137964725494385, "learning_rate": 5.478095238095239e-07, "loss": 0.0656, "step": 28575 }, { "epoch": 7.626666666666667, "grad_norm": 8.127405166625977, "learning_rate": 5.382857142857143e-07, "loss": 0.0717, "step": 28600 }, { "epoch": 7.633333333333333, "grad_norm": 5.741343021392822, "learning_rate": 5.291428571428572e-07, "loss": 0.0703, "step": 28625 }, { "epoch": 7.64, "grad_norm": 4.312849044799805, "learning_rate": 5.196190476190477e-07, "loss": 0.0632, "step": 28650 }, { "epoch": 7.6466666666666665, "grad_norm": 5.308321952819824, "learning_rate": 5.100952380952381e-07, "loss": 0.0695, "step": 28675 }, { "epoch": 7.653333333333333, "grad_norm": 5.703527927398682, "learning_rate": 5.005714285714286e-07, "loss": 0.0714, "step": 28700 }, { "epoch": 7.66, "grad_norm": 3.615980386734009, "learning_rate": 4.910476190476191e-07, "loss": 0.0664, "step": 28725 }, { "epoch": 7.666666666666667, "grad_norm": 3.2345364093780518, "learning_rate": 4.815238095238096e-07, "loss": 0.0725, "step": 28750 }, { "epoch": 7.673333333333334, "grad_norm": 6.087697505950928, "learning_rate": 4.7200000000000004e-07, "loss": 0.0684, "step": 28775 }, { "epoch": 7.68, "grad_norm": 3.968623161315918, "learning_rate": 4.624761904761905e-07, "loss": 0.0664, "step": 28800 }, { "epoch": 7.6866666666666665, "grad_norm": 3.8057210445404053, "learning_rate": 4.52952380952381e-07, "loss": 0.0672, "step": 28825 }, { "epoch": 7.693333333333333, "grad_norm": 3.7085447311401367, "learning_rate": 4.4342857142857146e-07, "loss": 0.065, "step": 28850 }, { "epoch": 7.7, "grad_norm": 4.362117767333984, "learning_rate": 4.339047619047619e-07, "loss": 0.0673, "step": 28875 }, { "epoch": 7.706666666666667, "grad_norm": 2.7516684532165527, "learning_rate": 4.2438095238095244e-07, "loss": 0.0708, "step": 28900 }, { "epoch": 7.713333333333333, "grad_norm": 4.849526882171631, "learning_rate": 4.148571428571429e-07, "loss": 0.0697, "step": 28925 }, { "epoch": 7.72, "grad_norm": 4.734394550323486, "learning_rate": 4.0533333333333336e-07, "loss": 0.0635, "step": 28950 }, { "epoch": 7.726666666666667, "grad_norm": 4.137080192565918, "learning_rate": 3.9580952380952385e-07, "loss": 0.0612, "step": 28975 }, { "epoch": 7.733333333333333, "grad_norm": 5.2929253578186035, "learning_rate": 3.8628571428571434e-07, "loss": 0.0647, "step": 29000 }, { "epoch": 7.74, "grad_norm": 5.124420166015625, "learning_rate": 3.767619047619048e-07, "loss": 0.0638, "step": 29025 }, { "epoch": 7.746666666666667, "grad_norm": 5.373873233795166, "learning_rate": 3.672380952380953e-07, "loss": 0.067, "step": 29050 }, { "epoch": 7.753333333333333, "grad_norm": 3.759629726409912, "learning_rate": 3.5771428571428576e-07, "loss": 0.0666, "step": 29075 }, { "epoch": 7.76, "grad_norm": 4.686151027679443, "learning_rate": 3.481904761904762e-07, "loss": 0.0747, "step": 29100 }, { "epoch": 7.766666666666667, "grad_norm": 4.968640327453613, "learning_rate": 3.3866666666666673e-07, "loss": 0.0687, "step": 29125 }, { "epoch": 7.773333333333333, "grad_norm": 4.830021381378174, "learning_rate": 3.2914285714285717e-07, "loss": 0.0602, "step": 29150 }, { "epoch": 7.78, "grad_norm": 4.99725341796875, "learning_rate": 3.1961904761904766e-07, "loss": 0.0659, "step": 29175 }, { "epoch": 7.786666666666667, "grad_norm": 5.051794528961182, "learning_rate": 3.100952380952381e-07, "loss": 0.0675, "step": 29200 }, { "epoch": 7.793333333333333, "grad_norm": 4.417238712310791, "learning_rate": 3.005714285714286e-07, "loss": 0.0697, "step": 29225 }, { "epoch": 7.8, "grad_norm": 3.990269899368286, "learning_rate": 2.910476190476191e-07, "loss": 0.0675, "step": 29250 }, { "epoch": 7.806666666666667, "grad_norm": 4.219623565673828, "learning_rate": 2.8152380952380956e-07, "loss": 0.0663, "step": 29275 }, { "epoch": 7.8133333333333335, "grad_norm": 5.26709508895874, "learning_rate": 2.72e-07, "loss": 0.0649, "step": 29300 }, { "epoch": 7.82, "grad_norm": 3.6149637699127197, "learning_rate": 2.624761904761905e-07, "loss": 0.0644, "step": 29325 }, { "epoch": 7.826666666666666, "grad_norm": 5.5963969230651855, "learning_rate": 2.52952380952381e-07, "loss": 0.0622, "step": 29350 }, { "epoch": 7.833333333333333, "grad_norm": 4.895612716674805, "learning_rate": 2.434285714285714e-07, "loss": 0.0703, "step": 29375 }, { "epoch": 7.84, "grad_norm": 4.865189075469971, "learning_rate": 2.3390476190476193e-07, "loss": 0.0678, "step": 29400 }, { "epoch": 7.846666666666667, "grad_norm": 5.065609455108643, "learning_rate": 2.2438095238095242e-07, "loss": 0.069, "step": 29425 }, { "epoch": 7.8533333333333335, "grad_norm": 4.6239495277404785, "learning_rate": 2.1485714285714286e-07, "loss": 0.0701, "step": 29450 }, { "epoch": 7.86, "grad_norm": 5.969646453857422, "learning_rate": 2.0533333333333335e-07, "loss": 0.0607, "step": 29475 }, { "epoch": 7.866666666666667, "grad_norm": 6.163353443145752, "learning_rate": 1.958095238095238e-07, "loss": 0.0751, "step": 29500 }, { "epoch": 7.873333333333333, "grad_norm": 4.489423751831055, "learning_rate": 1.862857142857143e-07, "loss": 0.0664, "step": 29525 }, { "epoch": 7.88, "grad_norm": 3.5370028018951416, "learning_rate": 1.767619047619048e-07, "loss": 0.068, "step": 29550 }, { "epoch": 7.886666666666667, "grad_norm": 4.672721862792969, "learning_rate": 1.6723809523809525e-07, "loss": 0.0635, "step": 29575 }, { "epoch": 7.8933333333333335, "grad_norm": 4.220569133758545, "learning_rate": 1.5771428571428574e-07, "loss": 0.0615, "step": 29600 }, { "epoch": 7.9, "grad_norm": 5.23537540435791, "learning_rate": 1.481904761904762e-07, "loss": 0.065, "step": 29625 }, { "epoch": 7.906666666666666, "grad_norm": 3.3540139198303223, "learning_rate": 1.3866666666666666e-07, "loss": 0.0666, "step": 29650 }, { "epoch": 7.913333333333333, "grad_norm": 4.031233310699463, "learning_rate": 1.2914285714285715e-07, "loss": 0.0673, "step": 29675 }, { "epoch": 7.92, "grad_norm": 5.2376322746276855, "learning_rate": 1.1961904761904764e-07, "loss": 0.0696, "step": 29700 }, { "epoch": 7.926666666666667, "grad_norm": 6.318338394165039, "learning_rate": 1.100952380952381e-07, "loss": 0.0751, "step": 29725 }, { "epoch": 7.933333333333334, "grad_norm": 3.781026601791382, "learning_rate": 1.0057142857142857e-07, "loss": 0.0634, "step": 29750 }, { "epoch": 7.9399999999999995, "grad_norm": 4.845342636108398, "learning_rate": 9.104761904761906e-08, "loss": 0.0674, "step": 29775 }, { "epoch": 7.946666666666666, "grad_norm": 4.712682247161865, "learning_rate": 8.152380952380953e-08, "loss": 0.0657, "step": 29800 }, { "epoch": 7.953333333333333, "grad_norm": 3.8968029022216797, "learning_rate": 7.200000000000001e-08, "loss": 0.0703, "step": 29825 }, { "epoch": 7.96, "grad_norm": 5.457840442657471, "learning_rate": 6.247619047619049e-08, "loss": 0.0639, "step": 29850 }, { "epoch": 7.966666666666667, "grad_norm": 3.5525684356689453, "learning_rate": 5.2952380952380955e-08, "loss": 0.0648, "step": 29875 }, { "epoch": 7.973333333333334, "grad_norm": 4.748493671417236, "learning_rate": 4.342857142857144e-08, "loss": 0.0682, "step": 29900 }, { "epoch": 7.98, "grad_norm": 3.7650439739227295, "learning_rate": 3.390476190476191e-08, "loss": 0.0662, "step": 29925 }, { "epoch": 7.986666666666666, "grad_norm": 4.285714149475098, "learning_rate": 2.438095238095238e-08, "loss": 0.0621, "step": 29950 }, { "epoch": 7.993333333333333, "grad_norm": 3.616840362548828, "learning_rate": 1.4857142857142859e-08, "loss": 0.0648, "step": 29975 }, { "epoch": 8.0, "grad_norm": 5.4871063232421875, "learning_rate": 5.333333333333334e-09, "loss": 0.0686, "step": 30000 }, { "epoch": 8.0, "eval_cer": 26.86767418891974, "eval_loss": 0.4617319405078888, "eval_runtime": 2780.3388, "eval_samples_per_second": 1.798, "eval_steps_per_second": 0.225, "step": 30000 }, { "epoch": 8.006666666666666, "grad_norm": 18.243915557861328, "learning_rate": 5.331555555555557e-06, "loss": 0.8146, "step": 30025 }, { "epoch": 8.013333333333334, "grad_norm": 18.89922523498535, "learning_rate": 5.327111111111112e-06, "loss": 0.7528, "step": 30050 }, { "epoch": 8.02, "grad_norm": 24.821474075317383, "learning_rate": 5.322666666666667e-06, "loss": 0.7202, "step": 30075 }, { "epoch": 8.026666666666667, "grad_norm": 17.338457107543945, "learning_rate": 5.318222222222222e-06, "loss": 0.6716, "step": 30100 }, { "epoch": 8.033333333333333, "grad_norm": 15.134620666503906, "learning_rate": 5.313777777777778e-06, "loss": 0.7724, "step": 30125 }, { "epoch": 8.04, "grad_norm": 18.599775314331055, "learning_rate": 5.309333333333334e-06, "loss": 0.7257, "step": 30150 }, { "epoch": 8.046666666666667, "grad_norm": 18.325605392456055, "learning_rate": 5.304888888888889e-06, "loss": 0.6595, "step": 30175 }, { "epoch": 8.053333333333333, "grad_norm": 15.410188674926758, "learning_rate": 5.300444444444445e-06, "loss": 0.6569, "step": 30200 }, { "epoch": 8.06, "grad_norm": 19.217710494995117, "learning_rate": 5.296e-06, "loss": 0.6183, "step": 30225 }, { "epoch": 8.066666666666666, "grad_norm": 18.169179916381836, "learning_rate": 5.291555555555556e-06, "loss": 0.6629, "step": 30250 }, { "epoch": 8.073333333333334, "grad_norm": 15.460811614990234, "learning_rate": 5.287111111111112e-06, "loss": 0.6568, "step": 30275 }, { "epoch": 8.08, "grad_norm": 14.522753715515137, "learning_rate": 5.282666666666667e-06, "loss": 0.674, "step": 30300 }, { "epoch": 8.086666666666666, "grad_norm": 15.918242454528809, "learning_rate": 5.2782222222222225e-06, "loss": 0.6385, "step": 30325 }, { "epoch": 8.093333333333334, "grad_norm": 26.04179573059082, "learning_rate": 5.273777777777777e-06, "loss": 0.628, "step": 30350 }, { "epoch": 8.1, "grad_norm": 18.51118278503418, "learning_rate": 5.269333333333334e-06, "loss": 0.615, "step": 30375 }, { "epoch": 8.106666666666667, "grad_norm": 17.105634689331055, "learning_rate": 5.26488888888889e-06, "loss": 0.6257, "step": 30400 }, { "epoch": 8.113333333333333, "grad_norm": 21.207962036132812, "learning_rate": 5.2604444444444445e-06, "loss": 0.6455, "step": 30425 }, { "epoch": 8.12, "grad_norm": 12.987568855285645, "learning_rate": 5.256e-06, "loss": 0.6835, "step": 30450 }, { "epoch": 8.126666666666667, "grad_norm": 18.208032608032227, "learning_rate": 5.251555555555557e-06, "loss": 0.6654, "step": 30475 }, { "epoch": 8.133333333333333, "grad_norm": 16.424348831176758, "learning_rate": 5.2471111111111115e-06, "loss": 0.6153, "step": 30500 }, { "epoch": 8.14, "grad_norm": 13.058244705200195, "learning_rate": 5.242666666666667e-06, "loss": 0.6793, "step": 30525 }, { "epoch": 8.146666666666667, "grad_norm": 20.00995635986328, "learning_rate": 5.238222222222222e-06, "loss": 0.6686, "step": 30550 }, { "epoch": 8.153333333333332, "grad_norm": 17.12276268005371, "learning_rate": 5.233777777777779e-06, "loss": 0.6136, "step": 30575 }, { "epoch": 8.16, "grad_norm": 14.7703275680542, "learning_rate": 5.229333333333334e-06, "loss": 0.5793, "step": 30600 }, { "epoch": 8.166666666666666, "grad_norm": 15.117989540100098, "learning_rate": 5.224888888888889e-06, "loss": 0.623, "step": 30625 }, { "epoch": 8.173333333333334, "grad_norm": 14.065521240234375, "learning_rate": 5.220444444444445e-06, "loss": 0.6322, "step": 30650 }, { "epoch": 8.18, "grad_norm": 17.211057662963867, "learning_rate": 5.216e-06, "loss": 0.6088, "step": 30675 }, { "epoch": 8.186666666666667, "grad_norm": 15.112071990966797, "learning_rate": 5.211555555555556e-06, "loss": 0.6297, "step": 30700 }, { "epoch": 8.193333333333333, "grad_norm": 13.937444686889648, "learning_rate": 5.207111111111112e-06, "loss": 0.5875, "step": 30725 }, { "epoch": 8.2, "grad_norm": 12.6859712600708, "learning_rate": 5.202666666666667e-06, "loss": 0.5921, "step": 30750 }, { "epoch": 8.206666666666667, "grad_norm": 13.37120532989502, "learning_rate": 5.1982222222222225e-06, "loss": 0.5797, "step": 30775 }, { "epoch": 8.213333333333333, "grad_norm": 15.390727996826172, "learning_rate": 5.193777777777779e-06, "loss": 0.6077, "step": 30800 }, { "epoch": 8.22, "grad_norm": 13.624114036560059, "learning_rate": 5.189333333333334e-06, "loss": 0.6019, "step": 30825 }, { "epoch": 8.226666666666667, "grad_norm": 20.586938858032227, "learning_rate": 5.1848888888888895e-06, "loss": 0.5825, "step": 30850 }, { "epoch": 8.233333333333333, "grad_norm": 13.739119529724121, "learning_rate": 5.180444444444444e-06, "loss": 0.6039, "step": 30875 }, { "epoch": 8.24, "grad_norm": 18.211870193481445, "learning_rate": 5.176e-06, "loss": 0.5948, "step": 30900 }, { "epoch": 8.246666666666666, "grad_norm": 19.04019546508789, "learning_rate": 5.171555555555557e-06, "loss": 0.5562, "step": 30925 }, { "epoch": 8.253333333333334, "grad_norm": 12.241456031799316, "learning_rate": 5.167288888888889e-06, "loss": 0.5718, "step": 30950 }, { "epoch": 8.26, "grad_norm": 16.88931655883789, "learning_rate": 5.162844444444445e-06, "loss": 0.6273, "step": 30975 }, { "epoch": 8.266666666666667, "grad_norm": 13.808469772338867, "learning_rate": 5.1584000000000005e-06, "loss": 0.5963, "step": 31000 }, { "epoch": 8.273333333333333, "grad_norm": 15.728231430053711, "learning_rate": 5.153955555555556e-06, "loss": 0.5921, "step": 31025 }, { "epoch": 8.28, "grad_norm": 15.160381317138672, "learning_rate": 5.149511111111112e-06, "loss": 0.562, "step": 31050 }, { "epoch": 8.286666666666667, "grad_norm": 15.716817855834961, "learning_rate": 5.145066666666667e-06, "loss": 0.5971, "step": 31075 }, { "epoch": 8.293333333333333, "grad_norm": 16.584707260131836, "learning_rate": 5.140622222222222e-06, "loss": 0.5617, "step": 31100 }, { "epoch": 8.3, "grad_norm": 15.124401092529297, "learning_rate": 5.136177777777778e-06, "loss": 0.5988, "step": 31125 }, { "epoch": 8.306666666666667, "grad_norm": 19.028844833374023, "learning_rate": 5.131733333333334e-06, "loss": 0.5299, "step": 31150 }, { "epoch": 8.313333333333333, "grad_norm": 14.18319320678711, "learning_rate": 5.1272888888888894e-06, "loss": 0.5744, "step": 31175 }, { "epoch": 8.32, "grad_norm": 12.77749252319336, "learning_rate": 5.122844444444445e-06, "loss": 0.5592, "step": 31200 }, { "epoch": 8.326666666666666, "grad_norm": 15.318037033081055, "learning_rate": 5.1184e-06, "loss": 0.5383, "step": 31225 }, { "epoch": 8.333333333333334, "grad_norm": 12.876914978027344, "learning_rate": 5.1139555555555565e-06, "loss": 0.5615, "step": 31250 }, { "epoch": 8.34, "grad_norm": 16.409387588500977, "learning_rate": 5.109511111111111e-06, "loss": 0.5617, "step": 31275 }, { "epoch": 8.346666666666668, "grad_norm": 14.395516395568848, "learning_rate": 5.105066666666667e-06, "loss": 0.5519, "step": 31300 }, { "epoch": 8.353333333333333, "grad_norm": 14.473128318786621, "learning_rate": 5.100622222222223e-06, "loss": 0.5157, "step": 31325 }, { "epoch": 8.36, "grad_norm": 12.485901832580566, "learning_rate": 5.096177777777778e-06, "loss": 0.5329, "step": 31350 }, { "epoch": 8.366666666666667, "grad_norm": 14.69071102142334, "learning_rate": 5.091733333333334e-06, "loss": 0.5544, "step": 31375 }, { "epoch": 8.373333333333333, "grad_norm": 22.943008422851562, "learning_rate": 5.087288888888889e-06, "loss": 0.539, "step": 31400 }, { "epoch": 8.38, "grad_norm": 13.123574256896973, "learning_rate": 5.082844444444445e-06, "loss": 0.5357, "step": 31425 }, { "epoch": 8.386666666666667, "grad_norm": 13.510093688964844, "learning_rate": 5.0784e-06, "loss": 0.5347, "step": 31450 }, { "epoch": 8.393333333333333, "grad_norm": 14.276025772094727, "learning_rate": 5.073955555555556e-06, "loss": 0.5237, "step": 31475 }, { "epoch": 8.4, "grad_norm": 25.43583869934082, "learning_rate": 5.069511111111112e-06, "loss": 0.5796, "step": 31500 }, { "epoch": 8.406666666666666, "grad_norm": 11.970858573913574, "learning_rate": 5.065066666666667e-06, "loss": 0.5364, "step": 31525 }, { "epoch": 8.413333333333334, "grad_norm": 20.373567581176758, "learning_rate": 5.060622222222222e-06, "loss": 0.5327, "step": 31550 }, { "epoch": 8.42, "grad_norm": 11.376425743103027, "learning_rate": 5.056177777777779e-06, "loss": 0.5164, "step": 31575 }, { "epoch": 8.426666666666666, "grad_norm": 11.323257446289062, "learning_rate": 5.051733333333334e-06, "loss": 0.4825, "step": 31600 }, { "epoch": 8.433333333333334, "grad_norm": 12.999857902526855, "learning_rate": 5.047288888888889e-06, "loss": 0.498, "step": 31625 }, { "epoch": 8.44, "grad_norm": 12.944220542907715, "learning_rate": 5.042844444444445e-06, "loss": 0.5473, "step": 31650 }, { "epoch": 8.446666666666667, "grad_norm": 15.640830039978027, "learning_rate": 5.0384e-06, "loss": 0.4907, "step": 31675 }, { "epoch": 8.453333333333333, "grad_norm": 14.546833992004395, "learning_rate": 5.0339555555555564e-06, "loss": 0.5181, "step": 31700 }, { "epoch": 8.46, "grad_norm": 17.21811866760254, "learning_rate": 5.029511111111111e-06, "loss": 0.5541, "step": 31725 }, { "epoch": 8.466666666666667, "grad_norm": 12.645063400268555, "learning_rate": 5.025066666666667e-06, "loss": 0.5463, "step": 31750 }, { "epoch": 8.473333333333333, "grad_norm": 11.872661590576172, "learning_rate": 5.020622222222223e-06, "loss": 0.5265, "step": 31775 }, { "epoch": 8.48, "grad_norm": 13.283079147338867, "learning_rate": 5.016177777777778e-06, "loss": 0.516, "step": 31800 }, { "epoch": 8.486666666666666, "grad_norm": 14.404930114746094, "learning_rate": 5.011733333333334e-06, "loss": 0.4905, "step": 31825 }, { "epoch": 8.493333333333334, "grad_norm": 20.349742889404297, "learning_rate": 5.007288888888889e-06, "loss": 0.5051, "step": 31850 }, { "epoch": 8.5, "grad_norm": 14.545086860656738, "learning_rate": 5.002844444444445e-06, "loss": 0.5062, "step": 31875 }, { "epoch": 8.506666666666666, "grad_norm": 15.095964431762695, "learning_rate": 4.9984e-06, "loss": 0.5485, "step": 31900 }, { "epoch": 8.513333333333334, "grad_norm": 12.571393966674805, "learning_rate": 4.993955555555556e-06, "loss": 0.5149, "step": 31925 }, { "epoch": 8.52, "grad_norm": 12.943389892578125, "learning_rate": 4.989511111111112e-06, "loss": 0.5159, "step": 31950 }, { "epoch": 8.526666666666667, "grad_norm": 14.136656761169434, "learning_rate": 4.985066666666667e-06, "loss": 0.4811, "step": 31975 }, { "epoch": 8.533333333333333, "grad_norm": 13.086160659790039, "learning_rate": 4.980622222222223e-06, "loss": 0.5213, "step": 32000 }, { "epoch": 8.54, "grad_norm": 11.149807929992676, "learning_rate": 4.976177777777778e-06, "loss": 0.5555, "step": 32025 }, { "epoch": 8.546666666666667, "grad_norm": 10.494269371032715, "learning_rate": 4.971733333333334e-06, "loss": 0.5076, "step": 32050 }, { "epoch": 8.553333333333333, "grad_norm": 11.46023178100586, "learning_rate": 4.967288888888889e-06, "loss": 0.5035, "step": 32075 }, { "epoch": 8.56, "grad_norm": 13.717464447021484, "learning_rate": 4.962844444444445e-06, "loss": 0.4974, "step": 32100 }, { "epoch": 8.566666666666666, "grad_norm": 17.642635345458984, "learning_rate": 4.958400000000001e-06, "loss": 0.5614, "step": 32125 }, { "epoch": 8.573333333333334, "grad_norm": 17.457115173339844, "learning_rate": 4.9539555555555555e-06, "loss": 0.5001, "step": 32150 }, { "epoch": 8.58, "grad_norm": 18.970012664794922, "learning_rate": 4.949511111111111e-06, "loss": 0.5157, "step": 32175 }, { "epoch": 8.586666666666666, "grad_norm": 16.205224990844727, "learning_rate": 4.945066666666667e-06, "loss": 0.4889, "step": 32200 }, { "epoch": 8.593333333333334, "grad_norm": 13.017066955566406, "learning_rate": 4.940622222222223e-06, "loss": 0.4808, "step": 32225 }, { "epoch": 8.6, "grad_norm": 11.615918159484863, "learning_rate": 4.936177777777778e-06, "loss": 0.5113, "step": 32250 }, { "epoch": 8.606666666666667, "grad_norm": 13.026098251342773, "learning_rate": 4.931733333333334e-06, "loss": 0.5224, "step": 32275 }, { "epoch": 8.613333333333333, "grad_norm": 14.716935157775879, "learning_rate": 4.927288888888889e-06, "loss": 0.5113, "step": 32300 }, { "epoch": 8.62, "grad_norm": 13.463180541992188, "learning_rate": 4.922844444444445e-06, "loss": 0.5164, "step": 32325 }, { "epoch": 8.626666666666667, "grad_norm": 13.046972274780273, "learning_rate": 4.9184e-06, "loss": 0.5302, "step": 32350 }, { "epoch": 8.633333333333333, "grad_norm": 20.69728660583496, "learning_rate": 4.913955555555556e-06, "loss": 0.5399, "step": 32375 }, { "epoch": 8.64, "grad_norm": 13.96275806427002, "learning_rate": 4.909511111111112e-06, "loss": 0.5146, "step": 32400 }, { "epoch": 8.646666666666667, "grad_norm": 12.157594680786133, "learning_rate": 4.905066666666667e-06, "loss": 0.4934, "step": 32425 }, { "epoch": 8.653333333333332, "grad_norm": 11.46053409576416, "learning_rate": 4.900622222222223e-06, "loss": 0.4918, "step": 32450 }, { "epoch": 8.66, "grad_norm": 13.600341796875, "learning_rate": 4.896177777777778e-06, "loss": 0.4602, "step": 32475 }, { "epoch": 8.666666666666666, "grad_norm": 12.145593643188477, "learning_rate": 4.8917333333333335e-06, "loss": 0.4749, "step": 32500 }, { "epoch": 8.673333333333334, "grad_norm": 12.82336711883545, "learning_rate": 4.887288888888889e-06, "loss": 0.4957, "step": 32525 }, { "epoch": 8.68, "grad_norm": 11.246060371398926, "learning_rate": 4.882844444444445e-06, "loss": 0.4579, "step": 32550 }, { "epoch": 8.686666666666667, "grad_norm": 11.304490089416504, "learning_rate": 4.878400000000001e-06, "loss": 0.5058, "step": 32575 }, { "epoch": 8.693333333333333, "grad_norm": 13.103443145751953, "learning_rate": 4.873955555555556e-06, "loss": 0.5004, "step": 32600 }, { "epoch": 8.7, "grad_norm": 13.371782302856445, "learning_rate": 4.869511111111111e-06, "loss": 0.5053, "step": 32625 }, { "epoch": 8.706666666666667, "grad_norm": 10.68547534942627, "learning_rate": 4.865066666666667e-06, "loss": 0.4934, "step": 32650 }, { "epoch": 8.713333333333333, "grad_norm": 10.652046203613281, "learning_rate": 4.8606222222222225e-06, "loss": 0.4695, "step": 32675 }, { "epoch": 8.72, "grad_norm": 12.550580978393555, "learning_rate": 4.856177777777778e-06, "loss": 0.4938, "step": 32700 }, { "epoch": 8.726666666666667, "grad_norm": 16.296411514282227, "learning_rate": 4.851733333333334e-06, "loss": 0.4937, "step": 32725 }, { "epoch": 8.733333333333333, "grad_norm": 11.758110046386719, "learning_rate": 4.847288888888889e-06, "loss": 0.5029, "step": 32750 }, { "epoch": 8.74, "grad_norm": 12.486358642578125, "learning_rate": 4.842844444444445e-06, "loss": 0.4948, "step": 32775 }, { "epoch": 8.746666666666666, "grad_norm": 15.770111083984375, "learning_rate": 4.8384e-06, "loss": 0.49, "step": 32800 }, { "epoch": 8.753333333333334, "grad_norm": 11.776001930236816, "learning_rate": 4.833955555555556e-06, "loss": 0.4958, "step": 32825 }, { "epoch": 8.76, "grad_norm": 12.193765640258789, "learning_rate": 4.8295111111111115e-06, "loss": 0.489, "step": 32850 }, { "epoch": 8.766666666666667, "grad_norm": 14.19636058807373, "learning_rate": 4.825066666666667e-06, "loss": 0.5179, "step": 32875 }, { "epoch": 8.773333333333333, "grad_norm": 12.62922477722168, "learning_rate": 4.820622222222223e-06, "loss": 0.4759, "step": 32900 }, { "epoch": 8.78, "grad_norm": 12.91270923614502, "learning_rate": 4.816177777777778e-06, "loss": 0.4821, "step": 32925 }, { "epoch": 8.786666666666667, "grad_norm": 11.37436580657959, "learning_rate": 4.8117333333333334e-06, "loss": 0.4946, "step": 32950 }, { "epoch": 8.793333333333333, "grad_norm": 14.276544570922852, "learning_rate": 4.807288888888889e-06, "loss": 0.4913, "step": 32975 }, { "epoch": 8.8, "grad_norm": 11.367855072021484, "learning_rate": 4.802844444444445e-06, "loss": 0.4893, "step": 33000 }, { "epoch": 8.806666666666667, "grad_norm": 13.06810188293457, "learning_rate": 4.7984000000000005e-06, "loss": 0.4998, "step": 33025 }, { "epoch": 8.813333333333333, "grad_norm": 11.384852409362793, "learning_rate": 4.793955555555556e-06, "loss": 0.5182, "step": 33050 }, { "epoch": 8.82, "grad_norm": 13.9320707321167, "learning_rate": 4.789511111111111e-06, "loss": 0.4547, "step": 33075 }, { "epoch": 8.826666666666666, "grad_norm": 12.074697494506836, "learning_rate": 4.785066666666668e-06, "loss": 0.4906, "step": 33100 }, { "epoch": 8.833333333333334, "grad_norm": 37.48137283325195, "learning_rate": 4.7806222222222224e-06, "loss": 0.4706, "step": 33125 }, { "epoch": 8.84, "grad_norm": 18.556570053100586, "learning_rate": 4.776177777777778e-06, "loss": 0.4978, "step": 33150 }, { "epoch": 8.846666666666668, "grad_norm": 12.724037170410156, "learning_rate": 4.771733333333334e-06, "loss": 0.461, "step": 33175 }, { "epoch": 8.853333333333333, "grad_norm": 12.445727348327637, "learning_rate": 4.767288888888889e-06, "loss": 0.4916, "step": 33200 }, { "epoch": 8.86, "grad_norm": 11.434266090393066, "learning_rate": 4.762844444444445e-06, "loss": 0.4603, "step": 33225 }, { "epoch": 8.866666666666667, "grad_norm": 15.868596076965332, "learning_rate": 4.7584e-06, "loss": 0.4672, "step": 33250 }, { "epoch": 8.873333333333333, "grad_norm": 11.550896644592285, "learning_rate": 4.753955555555556e-06, "loss": 0.5064, "step": 33275 }, { "epoch": 8.88, "grad_norm": 15.502063751220703, "learning_rate": 4.7495111111111114e-06, "loss": 0.4907, "step": 33300 }, { "epoch": 8.886666666666667, "grad_norm": 12.573371887207031, "learning_rate": 4.745066666666667e-06, "loss": 0.4892, "step": 33325 }, { "epoch": 8.893333333333333, "grad_norm": 12.35249137878418, "learning_rate": 4.740622222222223e-06, "loss": 0.5025, "step": 33350 }, { "epoch": 8.9, "grad_norm": 18.34847640991211, "learning_rate": 4.7361777777777785e-06, "loss": 0.4995, "step": 33375 }, { "epoch": 8.906666666666666, "grad_norm": 12.693206787109375, "learning_rate": 4.731733333333333e-06, "loss": 0.4653, "step": 33400 }, { "epoch": 8.913333333333334, "grad_norm": 17.093181610107422, "learning_rate": 4.727288888888889e-06, "loss": 0.4959, "step": 33425 }, { "epoch": 8.92, "grad_norm": 12.13631534576416, "learning_rate": 4.722844444444445e-06, "loss": 0.4863, "step": 33450 }, { "epoch": 8.926666666666666, "grad_norm": 17.085844039916992, "learning_rate": 4.7184000000000004e-06, "loss": 0.458, "step": 33475 }, { "epoch": 8.933333333333334, "grad_norm": 14.241769790649414, "learning_rate": 4.713955555555556e-06, "loss": 0.4832, "step": 33500 }, { "epoch": 8.94, "grad_norm": 9.491403579711914, "learning_rate": 4.709511111111111e-06, "loss": 0.4871, "step": 33525 }, { "epoch": 8.946666666666667, "grad_norm": 11.824576377868652, "learning_rate": 4.7050666666666675e-06, "loss": 0.4464, "step": 33550 }, { "epoch": 8.953333333333333, "grad_norm": 10.088066101074219, "learning_rate": 4.700622222222222e-06, "loss": 0.4519, "step": 33575 }, { "epoch": 8.96, "grad_norm": 15.208881378173828, "learning_rate": 4.696177777777778e-06, "loss": 0.5104, "step": 33600 }, { "epoch": 8.966666666666667, "grad_norm": 14.1508150100708, "learning_rate": 4.691733333333334e-06, "loss": 0.4732, "step": 33625 }, { "epoch": 8.973333333333333, "grad_norm": 10.624059677124023, "learning_rate": 4.687288888888889e-06, "loss": 0.5337, "step": 33650 }, { "epoch": 8.98, "grad_norm": 13.939300537109375, "learning_rate": 4.682844444444445e-06, "loss": 0.4924, "step": 33675 }, { "epoch": 8.986666666666666, "grad_norm": 13.412208557128906, "learning_rate": 4.6784e-06, "loss": 0.4717, "step": 33700 }, { "epoch": 8.993333333333334, "grad_norm": 13.79737663269043, "learning_rate": 4.673955555555556e-06, "loss": 0.4597, "step": 33725 }, { "epoch": 9.0, "grad_norm": 11.319329261779785, "learning_rate": 4.669511111111111e-06, "loss": 0.4473, "step": 33750 }, { "epoch": 9.0, "eval_cer": 24.105994819521833, "eval_loss": 0.4216950237751007, "eval_runtime": 2648.2661, "eval_samples_per_second": 1.888, "eval_steps_per_second": 0.236, "step": 33750 }, { "epoch": 9.006666666666666, "grad_norm": 11.2055025100708, "learning_rate": 4.665066666666667e-06, "loss": 0.3349, "step": 33775 }, { "epoch": 9.013333333333334, "grad_norm": 11.155159950256348, "learning_rate": 4.660622222222223e-06, "loss": 0.3364, "step": 33800 }, { "epoch": 9.02, "grad_norm": 10.115233421325684, "learning_rate": 4.6561777777777784e-06, "loss": 0.3261, "step": 33825 }, { "epoch": 9.026666666666667, "grad_norm": 12.81251335144043, "learning_rate": 4.651733333333333e-06, "loss": 0.3414, "step": 33850 }, { "epoch": 9.033333333333333, "grad_norm": 11.110782623291016, "learning_rate": 4.64728888888889e-06, "loss": 0.3513, "step": 33875 }, { "epoch": 9.04, "grad_norm": 10.191215515136719, "learning_rate": 4.642844444444445e-06, "loss": 0.3225, "step": 33900 }, { "epoch": 9.046666666666667, "grad_norm": 9.809249877929688, "learning_rate": 4.6384e-06, "loss": 0.3605, "step": 33925 }, { "epoch": 9.053333333333333, "grad_norm": 10.984810829162598, "learning_rate": 4.633955555555556e-06, "loss": 0.3597, "step": 33950 }, { "epoch": 9.06, "grad_norm": 8.912075996398926, "learning_rate": 4.629511111111111e-06, "loss": 0.3375, "step": 33975 }, { "epoch": 9.066666666666666, "grad_norm": 11.81358528137207, "learning_rate": 4.6250666666666674e-06, "loss": 0.3165, "step": 34000 }, { "epoch": 9.073333333333334, "grad_norm": 12.283133506774902, "learning_rate": 4.620622222222222e-06, "loss": 0.3226, "step": 34025 }, { "epoch": 9.08, "grad_norm": 8.767483711242676, "learning_rate": 4.616177777777778e-06, "loss": 0.3395, "step": 34050 }, { "epoch": 9.086666666666666, "grad_norm": 13.380270004272461, "learning_rate": 4.611733333333334e-06, "loss": 0.357, "step": 34075 }, { "epoch": 9.093333333333334, "grad_norm": 11.826725006103516, "learning_rate": 4.607288888888889e-06, "loss": 0.3448, "step": 34100 }, { "epoch": 9.1, "grad_norm": 10.320879936218262, "learning_rate": 4.602844444444445e-06, "loss": 0.3292, "step": 34125 }, { "epoch": 9.106666666666667, "grad_norm": 11.622060775756836, "learning_rate": 4.598400000000001e-06, "loss": 0.3141, "step": 34150 }, { "epoch": 9.113333333333333, "grad_norm": 11.803022384643555, "learning_rate": 4.5939555555555556e-06, "loss": 0.3707, "step": 34175 }, { "epoch": 9.12, "grad_norm": 29.31591796875, "learning_rate": 4.589511111111111e-06, "loss": 0.3305, "step": 34200 }, { "epoch": 9.126666666666667, "grad_norm": 8.708597183227539, "learning_rate": 4.585066666666667e-06, "loss": 0.3517, "step": 34225 }, { "epoch": 9.133333333333333, "grad_norm": 10.922528266906738, "learning_rate": 4.580622222222223e-06, "loss": 0.3557, "step": 34250 }, { "epoch": 9.14, "grad_norm": 10.471395492553711, "learning_rate": 4.576177777777778e-06, "loss": 0.3627, "step": 34275 }, { "epoch": 9.146666666666667, "grad_norm": 12.003467559814453, "learning_rate": 4.571733333333333e-06, "loss": 0.3444, "step": 34300 }, { "epoch": 9.153333333333332, "grad_norm": 9.267850875854492, "learning_rate": 4.56728888888889e-06, "loss": 0.3233, "step": 34325 }, { "epoch": 9.16, "grad_norm": 13.080263137817383, "learning_rate": 4.5628444444444446e-06, "loss": 0.3142, "step": 34350 }, { "epoch": 9.166666666666666, "grad_norm": 13.318137168884277, "learning_rate": 4.5584e-06, "loss": 0.3617, "step": 34375 }, { "epoch": 9.173333333333334, "grad_norm": 11.844691276550293, "learning_rate": 4.553955555555556e-06, "loss": 0.3083, "step": 34400 }, { "epoch": 9.18, "grad_norm": 10.467174530029297, "learning_rate": 4.549511111111111e-06, "loss": 0.3526, "step": 34425 }, { "epoch": 9.186666666666667, "grad_norm": 10.793675422668457, "learning_rate": 4.545066666666667e-06, "loss": 0.3766, "step": 34450 }, { "epoch": 9.193333333333333, "grad_norm": 8.995158195495605, "learning_rate": 4.540622222222222e-06, "loss": 0.3075, "step": 34475 }, { "epoch": 9.2, "grad_norm": 18.77377700805664, "learning_rate": 4.536177777777778e-06, "loss": 0.3297, "step": 34500 }, { "epoch": 9.206666666666667, "grad_norm": 8.546923637390137, "learning_rate": 4.5317333333333336e-06, "loss": 0.3517, "step": 34525 }, { "epoch": 9.213333333333333, "grad_norm": 16.647844314575195, "learning_rate": 4.527288888888889e-06, "loss": 0.3373, "step": 34550 }, { "epoch": 9.22, "grad_norm": 10.891227722167969, "learning_rate": 4.522844444444445e-06, "loss": 0.3538, "step": 34575 }, { "epoch": 9.226666666666667, "grad_norm": 11.351152420043945, "learning_rate": 4.518400000000001e-06, "loss": 0.3314, "step": 34600 }, { "epoch": 9.233333333333333, "grad_norm": 13.092940330505371, "learning_rate": 4.5139555555555555e-06, "loss": 0.3233, "step": 34625 }, { "epoch": 9.24, "grad_norm": 8.251945495605469, "learning_rate": 4.509511111111112e-06, "loss": 0.3089, "step": 34650 }, { "epoch": 9.246666666666666, "grad_norm": 9.582165718078613, "learning_rate": 4.505066666666667e-06, "loss": 0.3624, "step": 34675 }, { "epoch": 9.253333333333334, "grad_norm": 10.016166687011719, "learning_rate": 4.5006222222222226e-06, "loss": 0.355, "step": 34700 }, { "epoch": 9.26, "grad_norm": 10.170846939086914, "learning_rate": 4.496177777777778e-06, "loss": 0.3441, "step": 34725 }, { "epoch": 9.266666666666667, "grad_norm": 11.127729415893555, "learning_rate": 4.491733333333333e-06, "loss": 0.3483, "step": 34750 }, { "epoch": 9.273333333333333, "grad_norm": 10.483527183532715, "learning_rate": 4.48728888888889e-06, "loss": 0.3651, "step": 34775 }, { "epoch": 9.28, "grad_norm": 12.488900184631348, "learning_rate": 4.4828444444444445e-06, "loss": 0.3228, "step": 34800 }, { "epoch": 9.286666666666667, "grad_norm": 17.60837173461914, "learning_rate": 4.4784e-06, "loss": 0.3669, "step": 34825 }, { "epoch": 9.293333333333333, "grad_norm": 7.859933853149414, "learning_rate": 4.473955555555556e-06, "loss": 0.3465, "step": 34850 }, { "epoch": 9.3, "grad_norm": 12.244115829467773, "learning_rate": 4.4695111111111116e-06, "loss": 0.337, "step": 34875 }, { "epoch": 9.306666666666667, "grad_norm": 11.273533821105957, "learning_rate": 4.465066666666667e-06, "loss": 0.3507, "step": 34900 }, { "epoch": 9.313333333333333, "grad_norm": 9.373266220092773, "learning_rate": 4.460622222222223e-06, "loss": 0.2992, "step": 34925 }, { "epoch": 9.32, "grad_norm": 12.397862434387207, "learning_rate": 4.456177777777778e-06, "loss": 0.3421, "step": 34950 }, { "epoch": 9.326666666666666, "grad_norm": 12.248112678527832, "learning_rate": 4.4517333333333335e-06, "loss": 0.3113, "step": 34975 }, { "epoch": 9.333333333333334, "grad_norm": 10.152050971984863, "learning_rate": 4.447288888888889e-06, "loss": 0.3336, "step": 35000 }, { "epoch": 9.34, "grad_norm": 9.964981079101562, "learning_rate": 4.442844444444445e-06, "loss": 0.3349, "step": 35025 }, { "epoch": 9.346666666666668, "grad_norm": 14.626790046691895, "learning_rate": 4.438577777777778e-06, "loss": 0.3983, "step": 35050 }, { "epoch": 9.353333333333333, "grad_norm": 12.117527961730957, "learning_rate": 4.434133333333334e-06, "loss": 0.3482, "step": 35075 }, { "epoch": 9.36, "grad_norm": 7.9650559425354, "learning_rate": 4.4296888888888896e-06, "loss": 0.3328, "step": 35100 }, { "epoch": 9.366666666666667, "grad_norm": 10.019805908203125, "learning_rate": 4.425244444444444e-06, "loss": 0.3079, "step": 35125 }, { "epoch": 9.373333333333333, "grad_norm": 12.199522972106934, "learning_rate": 4.4208e-06, "loss": 0.371, "step": 35150 }, { "epoch": 9.38, "grad_norm": 10.349502563476562, "learning_rate": 4.416355555555556e-06, "loss": 0.3566, "step": 35175 }, { "epoch": 9.386666666666667, "grad_norm": 11.482312202453613, "learning_rate": 4.4119111111111115e-06, "loss": 0.3611, "step": 35200 }, { "epoch": 9.393333333333333, "grad_norm": 8.74041748046875, "learning_rate": 4.407466666666667e-06, "loss": 0.3478, "step": 35225 }, { "epoch": 9.4, "grad_norm": 13.310708045959473, "learning_rate": 4.403022222222222e-06, "loss": 0.3694, "step": 35250 }, { "epoch": 9.406666666666666, "grad_norm": 11.78620719909668, "learning_rate": 4.3985777777777786e-06, "loss": 0.3263, "step": 35275 }, { "epoch": 9.413333333333334, "grad_norm": 13.480876922607422, "learning_rate": 4.394133333333333e-06, "loss": 0.3447, "step": 35300 }, { "epoch": 9.42, "grad_norm": 10.065059661865234, "learning_rate": 4.389688888888889e-06, "loss": 0.3529, "step": 35325 }, { "epoch": 9.426666666666666, "grad_norm": 8.475591659545898, "learning_rate": 4.385244444444445e-06, "loss": 0.3624, "step": 35350 }, { "epoch": 9.433333333333334, "grad_norm": 12.886569023132324, "learning_rate": 4.3808000000000005e-06, "loss": 0.3567, "step": 35375 }, { "epoch": 9.44, "grad_norm": 16.268360137939453, "learning_rate": 4.376355555555556e-06, "loss": 0.3573, "step": 35400 }, { "epoch": 9.446666666666667, "grad_norm": 13.920827865600586, "learning_rate": 4.371911111111111e-06, "loss": 0.3485, "step": 35425 }, { "epoch": 9.453333333333333, "grad_norm": 12.024107933044434, "learning_rate": 4.367466666666667e-06, "loss": 0.3608, "step": 35450 }, { "epoch": 9.46, "grad_norm": 13.25430965423584, "learning_rate": 4.363022222222222e-06, "loss": 0.3249, "step": 35475 }, { "epoch": 9.466666666666667, "grad_norm": 12.59184741973877, "learning_rate": 4.358577777777778e-06, "loss": 0.3328, "step": 35500 }, { "epoch": 9.473333333333333, "grad_norm": 12.711884498596191, "learning_rate": 4.354133333333334e-06, "loss": 0.3547, "step": 35525 }, { "epoch": 9.48, "grad_norm": 13.33761978149414, "learning_rate": 4.3496888888888895e-06, "loss": 0.3588, "step": 35550 }, { "epoch": 9.486666666666666, "grad_norm": 13.257003784179688, "learning_rate": 4.345244444444444e-06, "loss": 0.3361, "step": 35575 }, { "epoch": 9.493333333333334, "grad_norm": 9.22869873046875, "learning_rate": 4.340800000000001e-06, "loss": 0.3261, "step": 35600 }, { "epoch": 9.5, "grad_norm": 10.138351440429688, "learning_rate": 4.336355555555556e-06, "loss": 0.3221, "step": 35625 }, { "epoch": 9.506666666666666, "grad_norm": 10.424031257629395, "learning_rate": 4.331911111111111e-06, "loss": 0.3158, "step": 35650 }, { "epoch": 9.513333333333334, "grad_norm": 9.590749740600586, "learning_rate": 4.327466666666667e-06, "loss": 0.3215, "step": 35675 }, { "epoch": 9.52, "grad_norm": 14.492039680480957, "learning_rate": 4.323022222222222e-06, "loss": 0.3252, "step": 35700 }, { "epoch": 9.526666666666667, "grad_norm": 19.009145736694336, "learning_rate": 4.3185777777777785e-06, "loss": 0.3491, "step": 35725 }, { "epoch": 9.533333333333333, "grad_norm": 9.58830451965332, "learning_rate": 4.314133333333333e-06, "loss": 0.3284, "step": 35750 }, { "epoch": 9.54, "grad_norm": 14.297080039978027, "learning_rate": 4.309688888888889e-06, "loss": 0.347, "step": 35775 }, { "epoch": 9.546666666666667, "grad_norm": 10.937182426452637, "learning_rate": 4.305244444444445e-06, "loss": 0.3493, "step": 35800 }, { "epoch": 9.553333333333333, "grad_norm": 9.238845825195312, "learning_rate": 4.3008e-06, "loss": 0.3364, "step": 35825 }, { "epoch": 9.56, "grad_norm": 10.773067474365234, "learning_rate": 4.296533333333334e-06, "loss": 0.3615, "step": 35850 }, { "epoch": 9.566666666666666, "grad_norm": 11.204609870910645, "learning_rate": 4.292088888888889e-06, "loss": 0.3399, "step": 35875 }, { "epoch": 9.573333333333334, "grad_norm": 13.751116752624512, "learning_rate": 4.287644444444445e-06, "loss": 0.3327, "step": 35900 }, { "epoch": 9.58, "grad_norm": 12.197418212890625, "learning_rate": 4.2832e-06, "loss": 0.3396, "step": 35925 }, { "epoch": 9.586666666666666, "grad_norm": 14.353384017944336, "learning_rate": 4.278755555555556e-06, "loss": 0.3341, "step": 35950 }, { "epoch": 9.593333333333334, "grad_norm": 15.927276611328125, "learning_rate": 4.274311111111111e-06, "loss": 0.335, "step": 35975 }, { "epoch": 9.6, "grad_norm": 11.03107738494873, "learning_rate": 4.269866666666667e-06, "loss": 0.3146, "step": 36000 }, { "epoch": 9.606666666666667, "grad_norm": 11.909839630126953, "learning_rate": 4.265422222222223e-06, "loss": 0.3288, "step": 36025 }, { "epoch": 9.613333333333333, "grad_norm": 10.883820533752441, "learning_rate": 4.260977777777778e-06, "loss": 0.3467, "step": 36050 }, { "epoch": 9.62, "grad_norm": 9.781579971313477, "learning_rate": 4.256533333333333e-06, "loss": 0.3481, "step": 36075 }, { "epoch": 9.626666666666667, "grad_norm": 11.161700248718262, "learning_rate": 4.25208888888889e-06, "loss": 0.3521, "step": 36100 }, { "epoch": 9.633333333333333, "grad_norm": 10.772214889526367, "learning_rate": 4.247644444444445e-06, "loss": 0.3522, "step": 36125 }, { "epoch": 9.64, "grad_norm": 10.271627426147461, "learning_rate": 4.2432e-06, "loss": 0.3431, "step": 36150 }, { "epoch": 9.646666666666667, "grad_norm": 8.559112548828125, "learning_rate": 4.238755555555556e-06, "loss": 0.3293, "step": 36175 }, { "epoch": 9.653333333333332, "grad_norm": 12.201814651489258, "learning_rate": 4.234311111111111e-06, "loss": 0.3275, "step": 36200 }, { "epoch": 9.66, "grad_norm": 8.431235313415527, "learning_rate": 4.229866666666667e-06, "loss": 0.3204, "step": 36225 }, { "epoch": 9.666666666666666, "grad_norm": 10.42703628540039, "learning_rate": 4.225422222222222e-06, "loss": 0.3058, "step": 36250 }, { "epoch": 9.673333333333334, "grad_norm": 9.141644477844238, "learning_rate": 4.220977777777778e-06, "loss": 0.3339, "step": 36275 }, { "epoch": 9.68, "grad_norm": 10.64489459991455, "learning_rate": 4.216533333333334e-06, "loss": 0.3286, "step": 36300 }, { "epoch": 9.686666666666667, "grad_norm": 9.375127792358398, "learning_rate": 4.212088888888889e-06, "loss": 0.3326, "step": 36325 }, { "epoch": 9.693333333333333, "grad_norm": 10.390459060668945, "learning_rate": 4.207644444444445e-06, "loss": 0.3205, "step": 36350 }, { "epoch": 9.7, "grad_norm": 8.533020973205566, "learning_rate": 4.203200000000001e-06, "loss": 0.3381, "step": 36375 }, { "epoch": 9.706666666666667, "grad_norm": 19.82526969909668, "learning_rate": 4.1987555555555555e-06, "loss": 0.3154, "step": 36400 }, { "epoch": 9.713333333333333, "grad_norm": 10.132174491882324, "learning_rate": 4.194311111111111e-06, "loss": 0.3139, "step": 36425 }, { "epoch": 9.72, "grad_norm": 23.91449737548828, "learning_rate": 4.189866666666667e-06, "loss": 0.3301, "step": 36450 }, { "epoch": 9.726666666666667, "grad_norm": 10.511513710021973, "learning_rate": 4.185422222222223e-06, "loss": 0.3319, "step": 36475 }, { "epoch": 9.733333333333333, "grad_norm": 8.875648498535156, "learning_rate": 4.180977777777778e-06, "loss": 0.3168, "step": 36500 }, { "epoch": 9.74, "grad_norm": 11.001381874084473, "learning_rate": 4.176533333333333e-06, "loss": 0.3323, "step": 36525 }, { "epoch": 9.746666666666666, "grad_norm": 10.972457885742188, "learning_rate": 4.17208888888889e-06, "loss": 0.3342, "step": 36550 }, { "epoch": 9.753333333333334, "grad_norm": 10.859827995300293, "learning_rate": 4.1676444444444445e-06, "loss": 0.3162, "step": 36575 }, { "epoch": 9.76, "grad_norm": 10.125750541687012, "learning_rate": 4.1632e-06, "loss": 0.3395, "step": 36600 }, { "epoch": 9.766666666666667, "grad_norm": 10.559966087341309, "learning_rate": 4.158755555555556e-06, "loss": 0.3421, "step": 36625 }, { "epoch": 9.773333333333333, "grad_norm": 11.330896377563477, "learning_rate": 4.154311111111112e-06, "loss": 0.318, "step": 36650 }, { "epoch": 9.78, "grad_norm": 10.702655792236328, "learning_rate": 4.149866666666667e-06, "loss": 0.3045, "step": 36675 }, { "epoch": 9.786666666666667, "grad_norm": 16.289342880249023, "learning_rate": 4.145422222222222e-06, "loss": 0.3549, "step": 36700 }, { "epoch": 9.793333333333333, "grad_norm": 16.139503479003906, "learning_rate": 4.140977777777778e-06, "loss": 0.3355, "step": 36725 }, { "epoch": 9.8, "grad_norm": 11.432600021362305, "learning_rate": 4.1365333333333335e-06, "loss": 0.3119, "step": 36750 }, { "epoch": 9.806666666666667, "grad_norm": 10.755952835083008, "learning_rate": 4.132088888888889e-06, "loss": 0.3545, "step": 36775 }, { "epoch": 9.813333333333333, "grad_norm": 8.412693977355957, "learning_rate": 4.127644444444445e-06, "loss": 0.3431, "step": 36800 }, { "epoch": 9.82, "grad_norm": 8.95991039276123, "learning_rate": 4.123200000000001e-06, "loss": 0.3254, "step": 36825 }, { "epoch": 9.826666666666666, "grad_norm": 11.439239501953125, "learning_rate": 4.1187555555555554e-06, "loss": 0.3124, "step": 36850 }, { "epoch": 9.833333333333334, "grad_norm": 9.111920356750488, "learning_rate": 4.114311111111112e-06, "loss": 0.3501, "step": 36875 }, { "epoch": 9.84, "grad_norm": 11.934349060058594, "learning_rate": 4.109866666666667e-06, "loss": 0.3173, "step": 36900 }, { "epoch": 9.846666666666668, "grad_norm": 25.22702407836914, "learning_rate": 4.1054222222222225e-06, "loss": 0.3328, "step": 36925 }, { "epoch": 9.853333333333333, "grad_norm": 12.632713317871094, "learning_rate": 4.100977777777778e-06, "loss": 0.3168, "step": 36950 }, { "epoch": 9.86, "grad_norm": 10.209392547607422, "learning_rate": 4.096533333333333e-06, "loss": 0.3374, "step": 36975 }, { "epoch": 9.866666666666667, "grad_norm": 10.222474098205566, "learning_rate": 4.09208888888889e-06, "loss": 0.3291, "step": 37000 }, { "epoch": 9.873333333333333, "grad_norm": 9.350411415100098, "learning_rate": 4.0876444444444444e-06, "loss": 0.3196, "step": 37025 }, { "epoch": 9.88, "grad_norm": 11.965867042541504, "learning_rate": 4.0832e-06, "loss": 0.3186, "step": 37050 }, { "epoch": 9.886666666666667, "grad_norm": 11.902562141418457, "learning_rate": 4.078755555555556e-06, "loss": 0.3029, "step": 37075 }, { "epoch": 9.893333333333333, "grad_norm": 12.862565040588379, "learning_rate": 4.0743111111111115e-06, "loss": 0.3383, "step": 37100 }, { "epoch": 9.9, "grad_norm": 11.106282234191895, "learning_rate": 4.069866666666667e-06, "loss": 0.3472, "step": 37125 }, { "epoch": 9.906666666666666, "grad_norm": 11.537444114685059, "learning_rate": 4.065422222222223e-06, "loss": 0.3315, "step": 37150 }, { "epoch": 9.913333333333334, "grad_norm": 11.761807441711426, "learning_rate": 4.060977777777778e-06, "loss": 0.323, "step": 37175 }, { "epoch": 9.92, "grad_norm": 11.377269744873047, "learning_rate": 4.0565333333333334e-06, "loss": 0.3274, "step": 37200 }, { "epoch": 9.926666666666666, "grad_norm": 45.64230728149414, "learning_rate": 4.052088888888889e-06, "loss": 0.3185, "step": 37225 }, { "epoch": 9.933333333333334, "grad_norm": 10.923096656799316, "learning_rate": 4.047644444444445e-06, "loss": 0.3132, "step": 37250 }, { "epoch": 9.94, "grad_norm": 11.534711837768555, "learning_rate": 4.0432000000000005e-06, "loss": 0.3509, "step": 37275 }, { "epoch": 9.946666666666667, "grad_norm": 11.309601783752441, "learning_rate": 4.038755555555555e-06, "loss": 0.3345, "step": 37300 }, { "epoch": 9.953333333333333, "grad_norm": 12.138336181640625, "learning_rate": 4.034311111111112e-06, "loss": 0.3187, "step": 37325 }, { "epoch": 9.96, "grad_norm": 10.394800186157227, "learning_rate": 4.029866666666667e-06, "loss": 0.3208, "step": 37350 }, { "epoch": 9.966666666666667, "grad_norm": 11.105480194091797, "learning_rate": 4.0254222222222224e-06, "loss": 0.3076, "step": 37375 }, { "epoch": 9.973333333333333, "grad_norm": 9.756331443786621, "learning_rate": 4.020977777777778e-06, "loss": 0.3044, "step": 37400 }, { "epoch": 9.98, "grad_norm": 8.774738311767578, "learning_rate": 4.016533333333333e-06, "loss": 0.3312, "step": 37425 }, { "epoch": 9.986666666666666, "grad_norm": 9.203386306762695, "learning_rate": 4.0120888888888895e-06, "loss": 0.3075, "step": 37450 }, { "epoch": 9.993333333333334, "grad_norm": 9.983840942382812, "learning_rate": 4.007644444444444e-06, "loss": 0.3186, "step": 37475 }, { "epoch": 10.0, "grad_norm": 13.41384220123291, "learning_rate": 4.0032e-06, "loss": 0.3393, "step": 37500 }, { "epoch": 10.0, "eval_cer": 23.107168812776028, "eval_loss": 0.3924383819103241, "eval_runtime": 3015.518, "eval_samples_per_second": 1.658, "eval_steps_per_second": 0.207, "step": 37500 }, { "epoch": 10.006666666666666, "grad_norm": 8.093482971191406, "learning_rate": 3.998755555555556e-06, "loss": 0.2154, "step": 37525 }, { "epoch": 10.013333333333334, "grad_norm": 12.277352333068848, "learning_rate": 3.9943111111111114e-06, "loss": 0.2121, "step": 37550 }, { "epoch": 10.02, "grad_norm": 9.645472526550293, "learning_rate": 3.989866666666667e-06, "loss": 0.2214, "step": 37575 }, { "epoch": 10.026666666666667, "grad_norm": 7.492300987243652, "learning_rate": 3.985422222222223e-06, "loss": 0.2341, "step": 37600 }, { "epoch": 10.033333333333333, "grad_norm": 9.952627182006836, "learning_rate": 3.980977777777778e-06, "loss": 0.2135, "step": 37625 }, { "epoch": 10.04, "grad_norm": 7.625110149383545, "learning_rate": 3.976533333333334e-06, "loss": 0.2479, "step": 37650 }, { "epoch": 10.046666666666667, "grad_norm": 7.421323776245117, "learning_rate": 3.972088888888889e-06, "loss": 0.2102, "step": 37675 }, { "epoch": 10.053333333333333, "grad_norm": 7.728806018829346, "learning_rate": 3.967644444444445e-06, "loss": 0.2141, "step": 37700 }, { "epoch": 10.06, "grad_norm": 11.488616943359375, "learning_rate": 3.9632000000000004e-06, "loss": 0.1991, "step": 37725 }, { "epoch": 10.066666666666666, "grad_norm": 11.548733711242676, "learning_rate": 3.958755555555555e-06, "loss": 0.2227, "step": 37750 }, { "epoch": 10.073333333333334, "grad_norm": 7.791804790496826, "learning_rate": 3.954311111111112e-06, "loss": 0.2209, "step": 37775 }, { "epoch": 10.08, "grad_norm": 9.204289436340332, "learning_rate": 3.949866666666667e-06, "loss": 0.2146, "step": 37800 }, { "epoch": 10.086666666666666, "grad_norm": 5.708066463470459, "learning_rate": 3.945422222222222e-06, "loss": 0.2031, "step": 37825 }, { "epoch": 10.093333333333334, "grad_norm": 9.92594051361084, "learning_rate": 3.941155555555556e-06, "loss": 0.218, "step": 37850 }, { "epoch": 10.1, "grad_norm": 8.029435157775879, "learning_rate": 3.936711111111111e-06, "loss": 0.2387, "step": 37875 }, { "epoch": 10.106666666666667, "grad_norm": 11.323385238647461, "learning_rate": 3.932266666666667e-06, "loss": 0.2332, "step": 37900 }, { "epoch": 10.113333333333333, "grad_norm": 9.876887321472168, "learning_rate": 3.927822222222223e-06, "loss": 0.231, "step": 37925 }, { "epoch": 10.12, "grad_norm": 8.271666526794434, "learning_rate": 3.9233777777777784e-06, "loss": 0.2246, "step": 37950 }, { "epoch": 10.126666666666667, "grad_norm": 8.766785621643066, "learning_rate": 3.918933333333333e-06, "loss": 0.2194, "step": 37975 }, { "epoch": 10.133333333333333, "grad_norm": 6.628544807434082, "learning_rate": 3.914488888888889e-06, "loss": 0.1969, "step": 38000 }, { "epoch": 10.14, "grad_norm": 7.062167167663574, "learning_rate": 3.910044444444445e-06, "loss": 0.2243, "step": 38025 }, { "epoch": 10.146666666666667, "grad_norm": 9.68306827545166, "learning_rate": 3.9056e-06, "loss": 0.2386, "step": 38050 }, { "epoch": 10.153333333333332, "grad_norm": 10.082594871520996, "learning_rate": 3.901155555555556e-06, "loss": 0.2356, "step": 38075 }, { "epoch": 10.16, "grad_norm": 9.783034324645996, "learning_rate": 3.896711111111112e-06, "loss": 0.2001, "step": 38100 }, { "epoch": 10.166666666666666, "grad_norm": 8.340103149414062, "learning_rate": 3.892266666666667e-06, "loss": 0.2161, "step": 38125 }, { "epoch": 10.173333333333334, "grad_norm": 9.285014152526855, "learning_rate": 3.887822222222222e-06, "loss": 0.2068, "step": 38150 }, { "epoch": 10.18, "grad_norm": 8.18956184387207, "learning_rate": 3.883377777777778e-06, "loss": 0.2135, "step": 38175 }, { "epoch": 10.186666666666667, "grad_norm": 7.321876525878906, "learning_rate": 3.878933333333334e-06, "loss": 0.2065, "step": 38200 }, { "epoch": 10.193333333333333, "grad_norm": 9.229318618774414, "learning_rate": 3.874488888888889e-06, "loss": 0.2158, "step": 38225 }, { "epoch": 10.2, "grad_norm": 10.671834945678711, "learning_rate": 3.870044444444444e-06, "loss": 0.2196, "step": 38250 }, { "epoch": 10.206666666666667, "grad_norm": 7.561845779418945, "learning_rate": 3.865600000000001e-06, "loss": 0.2221, "step": 38275 }, { "epoch": 10.213333333333333, "grad_norm": 8.568970680236816, "learning_rate": 3.861155555555556e-06, "loss": 0.2107, "step": 38300 }, { "epoch": 10.22, "grad_norm": 8.562503814697266, "learning_rate": 3.856711111111111e-06, "loss": 0.212, "step": 38325 }, { "epoch": 10.226666666666667, "grad_norm": 10.606689453125, "learning_rate": 3.852266666666667e-06, "loss": 0.2135, "step": 38350 }, { "epoch": 10.233333333333333, "grad_norm": 8.54037857055664, "learning_rate": 3.847822222222223e-06, "loss": 0.227, "step": 38375 }, { "epoch": 10.24, "grad_norm": 8.562705039978027, "learning_rate": 3.843377777777778e-06, "loss": 0.2171, "step": 38400 }, { "epoch": 10.246666666666666, "grad_norm": 8.44032096862793, "learning_rate": 3.838933333333333e-06, "loss": 0.2196, "step": 38425 }, { "epoch": 10.253333333333334, "grad_norm": 7.868739128112793, "learning_rate": 3.834488888888889e-06, "loss": 0.2296, "step": 38450 }, { "epoch": 10.26, "grad_norm": 11.724882125854492, "learning_rate": 3.830044444444445e-06, "loss": 0.2285, "step": 38475 }, { "epoch": 10.266666666666667, "grad_norm": 6.803410530090332, "learning_rate": 3.8256e-06, "loss": 0.2137, "step": 38500 }, { "epoch": 10.273333333333333, "grad_norm": 8.089034080505371, "learning_rate": 3.821155555555556e-06, "loss": 0.2442, "step": 38525 }, { "epoch": 10.28, "grad_norm": 6.885087013244629, "learning_rate": 3.816711111111112e-06, "loss": 0.2202, "step": 38550 }, { "epoch": 10.286666666666667, "grad_norm": 8.351361274719238, "learning_rate": 3.812266666666667e-06, "loss": 0.2426, "step": 38575 }, { "epoch": 10.293333333333333, "grad_norm": 11.625219345092773, "learning_rate": 3.8078222222222226e-06, "loss": 0.2304, "step": 38600 }, { "epoch": 10.3, "grad_norm": 9.789639472961426, "learning_rate": 3.803377777777778e-06, "loss": 0.2237, "step": 38625 }, { "epoch": 10.306666666666667, "grad_norm": 8.348762512207031, "learning_rate": 3.798933333333334e-06, "loss": 0.2061, "step": 38650 }, { "epoch": 10.313333333333333, "grad_norm": 10.455832481384277, "learning_rate": 3.7944888888888893e-06, "loss": 0.2283, "step": 38675 }, { "epoch": 10.32, "grad_norm": 8.355622291564941, "learning_rate": 3.7900444444444445e-06, "loss": 0.2627, "step": 38700 }, { "epoch": 10.326666666666666, "grad_norm": 7.500202655792236, "learning_rate": 3.7856000000000002e-06, "loss": 0.232, "step": 38725 }, { "epoch": 10.333333333333334, "grad_norm": 10.522817611694336, "learning_rate": 3.7811555555555555e-06, "loss": 0.2157, "step": 38750 }, { "epoch": 10.34, "grad_norm": 16.56275749206543, "learning_rate": 3.7767111111111116e-06, "loss": 0.2425, "step": 38775 }, { "epoch": 10.346666666666668, "grad_norm": 10.537948608398438, "learning_rate": 3.772266666666667e-06, "loss": 0.2266, "step": 38800 }, { "epoch": 10.353333333333333, "grad_norm": 11.600751876831055, "learning_rate": 3.7678222222222226e-06, "loss": 0.2079, "step": 38825 }, { "epoch": 10.36, "grad_norm": 8.136938095092773, "learning_rate": 3.763377777777778e-06, "loss": 0.2288, "step": 38850 }, { "epoch": 10.366666666666667, "grad_norm": 9.478940963745117, "learning_rate": 3.758933333333334e-06, "loss": 0.2218, "step": 38875 }, { "epoch": 10.373333333333333, "grad_norm": 10.528573989868164, "learning_rate": 3.7544888888888892e-06, "loss": 0.1968, "step": 38900 }, { "epoch": 10.38, "grad_norm": 11.154718399047852, "learning_rate": 3.7500444444444445e-06, "loss": 0.228, "step": 38925 }, { "epoch": 10.386666666666667, "grad_norm": 9.54206371307373, "learning_rate": 3.7456e-06, "loss": 0.2222, "step": 38950 }, { "epoch": 10.393333333333333, "grad_norm": 8.447293281555176, "learning_rate": 3.7411555555555555e-06, "loss": 0.2254, "step": 38975 }, { "epoch": 10.4, "grad_norm": 22.978853225708008, "learning_rate": 3.7367111111111116e-06, "loss": 0.2204, "step": 39000 }, { "epoch": 10.406666666666666, "grad_norm": 8.979909896850586, "learning_rate": 3.732266666666667e-06, "loss": 0.2272, "step": 39025 }, { "epoch": 10.413333333333334, "grad_norm": 9.296770095825195, "learning_rate": 3.7278222222222225e-06, "loss": 0.2341, "step": 39050 }, { "epoch": 10.42, "grad_norm": 9.58231258392334, "learning_rate": 3.723377777777778e-06, "loss": 0.1994, "step": 39075 }, { "epoch": 10.426666666666666, "grad_norm": 9.84244441986084, "learning_rate": 3.718933333333334e-06, "loss": 0.2153, "step": 39100 }, { "epoch": 10.433333333333334, "grad_norm": 7.828046798706055, "learning_rate": 3.714488888888889e-06, "loss": 0.1962, "step": 39125 }, { "epoch": 10.44, "grad_norm": 8.060846328735352, "learning_rate": 3.710044444444445e-06, "loss": 0.2194, "step": 39150 }, { "epoch": 10.446666666666667, "grad_norm": 9.153921127319336, "learning_rate": 3.7056e-06, "loss": 0.2259, "step": 39175 }, { "epoch": 10.453333333333333, "grad_norm": 6.323796272277832, "learning_rate": 3.7011555555555554e-06, "loss": 0.2251, "step": 39200 }, { "epoch": 10.46, "grad_norm": 7.815989017486572, "learning_rate": 3.6967111111111115e-06, "loss": 0.2261, "step": 39225 }, { "epoch": 10.466666666666667, "grad_norm": 8.925345420837402, "learning_rate": 3.692266666666667e-06, "loss": 0.2299, "step": 39250 }, { "epoch": 10.473333333333333, "grad_norm": 11.024495124816895, "learning_rate": 3.6878222222222225e-06, "loss": 0.2277, "step": 39275 }, { "epoch": 10.48, "grad_norm": 6.677377700805664, "learning_rate": 3.6833777777777778e-06, "loss": 0.2011, "step": 39300 }, { "epoch": 10.486666666666666, "grad_norm": 8.615133285522461, "learning_rate": 3.678933333333334e-06, "loss": 0.2531, "step": 39325 }, { "epoch": 10.493333333333334, "grad_norm": 8.36490249633789, "learning_rate": 3.674488888888889e-06, "loss": 0.2438, "step": 39350 }, { "epoch": 10.5, "grad_norm": 4.426738262176514, "learning_rate": 3.670044444444445e-06, "loss": 0.2056, "step": 39375 }, { "epoch": 10.506666666666666, "grad_norm": 8.252320289611816, "learning_rate": 3.6656e-06, "loss": 0.2086, "step": 39400 }, { "epoch": 10.513333333333334, "grad_norm": 8.297357559204102, "learning_rate": 3.6611555555555562e-06, "loss": 0.2064, "step": 39425 }, { "epoch": 10.52, "grad_norm": 10.284330368041992, "learning_rate": 3.6567111111111115e-06, "loss": 0.2378, "step": 39450 }, { "epoch": 10.526666666666667, "grad_norm": 11.653138160705566, "learning_rate": 3.6522666666666668e-06, "loss": 0.2284, "step": 39475 }, { "epoch": 10.533333333333333, "grad_norm": 8.758095741271973, "learning_rate": 3.6478222222222225e-06, "loss": 0.2326, "step": 39500 }, { "epoch": 10.54, "grad_norm": 9.035077095031738, "learning_rate": 3.6433777777777777e-06, "loss": 0.2203, "step": 39525 }, { "epoch": 10.546666666666667, "grad_norm": 14.06479263305664, "learning_rate": 3.638933333333334e-06, "loss": 0.219, "step": 39550 }, { "epoch": 10.553333333333333, "grad_norm": 7.382366180419922, "learning_rate": 3.634488888888889e-06, "loss": 0.243, "step": 39575 }, { "epoch": 10.56, "grad_norm": 8.401439666748047, "learning_rate": 3.630044444444445e-06, "loss": 0.2536, "step": 39600 }, { "epoch": 10.566666666666666, "grad_norm": 7.350332260131836, "learning_rate": 3.6256e-06, "loss": 0.221, "step": 39625 }, { "epoch": 10.573333333333334, "grad_norm": 10.389023780822754, "learning_rate": 3.621155555555556e-06, "loss": 0.2265, "step": 39650 }, { "epoch": 10.58, "grad_norm": 8.169903755187988, "learning_rate": 3.6167111111111115e-06, "loss": 0.2213, "step": 39675 }, { "epoch": 10.586666666666666, "grad_norm": 11.609553337097168, "learning_rate": 3.6122666666666667e-06, "loss": 0.2088, "step": 39700 }, { "epoch": 10.593333333333334, "grad_norm": 9.727988243103027, "learning_rate": 3.6078222222222224e-06, "loss": 0.2053, "step": 39725 }, { "epoch": 10.6, "grad_norm": 10.182312965393066, "learning_rate": 3.6033777777777777e-06, "loss": 0.2204, "step": 39750 }, { "epoch": 10.606666666666667, "grad_norm": 9.515291213989258, "learning_rate": 3.598933333333334e-06, "loss": 0.2078, "step": 39775 }, { "epoch": 10.613333333333333, "grad_norm": 9.795206069946289, "learning_rate": 3.594488888888889e-06, "loss": 0.2322, "step": 39800 }, { "epoch": 10.62, "grad_norm": 8.540069580078125, "learning_rate": 3.5900444444444448e-06, "loss": 0.2189, "step": 39825 }, { "epoch": 10.626666666666667, "grad_norm": 8.98380184173584, "learning_rate": 3.5856e-06, "loss": 0.1978, "step": 39850 }, { "epoch": 10.633333333333333, "grad_norm": 7.228460311889648, "learning_rate": 3.581155555555556e-06, "loss": 0.2153, "step": 39875 }, { "epoch": 10.64, "grad_norm": 7.724064826965332, "learning_rate": 3.5767111111111114e-06, "loss": 0.2301, "step": 39900 }, { "epoch": 10.646666666666667, "grad_norm": 20.577720642089844, "learning_rate": 3.572266666666667e-06, "loss": 0.2135, "step": 39925 }, { "epoch": 10.653333333333332, "grad_norm": 10.560855865478516, "learning_rate": 3.5678222222222224e-06, "loss": 0.2135, "step": 39950 }, { "epoch": 10.66, "grad_norm": 12.198540687561035, "learning_rate": 3.5633777777777776e-06, "loss": 0.2163, "step": 39975 }, { "epoch": 10.666666666666666, "grad_norm": 6.390345573425293, "learning_rate": 3.5589333333333338e-06, "loss": 0.2232, "step": 40000 }, { "epoch": 10.673333333333334, "grad_norm": 9.270956993103027, "learning_rate": 3.554488888888889e-06, "loss": 0.232, "step": 40025 }, { "epoch": 10.68, "grad_norm": 8.765985488891602, "learning_rate": 3.5500444444444447e-06, "loss": 0.2233, "step": 40050 }, { "epoch": 10.686666666666667, "grad_norm": 9.791097640991211, "learning_rate": 3.5456e-06, "loss": 0.2335, "step": 40075 }, { "epoch": 10.693333333333333, "grad_norm": 10.26265811920166, "learning_rate": 3.541155555555556e-06, "loss": 0.2213, "step": 40100 }, { "epoch": 10.7, "grad_norm": 9.116618156433105, "learning_rate": 3.5367111111111114e-06, "loss": 0.2178, "step": 40125 }, { "epoch": 10.706666666666667, "grad_norm": 12.255023956298828, "learning_rate": 3.532266666666667e-06, "loss": 0.2466, "step": 40150 }, { "epoch": 10.713333333333333, "grad_norm": 8.618422508239746, "learning_rate": 3.5278222222222223e-06, "loss": 0.2129, "step": 40175 }, { "epoch": 10.72, "grad_norm": 8.504302024841309, "learning_rate": 3.5233777777777784e-06, "loss": 0.2195, "step": 40200 }, { "epoch": 10.726666666666667, "grad_norm": 8.098435401916504, "learning_rate": 3.5189333333333337e-06, "loss": 0.2234, "step": 40225 }, { "epoch": 10.733333333333333, "grad_norm": 9.196489334106445, "learning_rate": 3.514488888888889e-06, "loss": 0.2127, "step": 40250 }, { "epoch": 10.74, "grad_norm": 10.596695899963379, "learning_rate": 3.5100444444444447e-06, "loss": 0.2169, "step": 40275 }, { "epoch": 10.746666666666666, "grad_norm": 10.050414085388184, "learning_rate": 3.5056e-06, "loss": 0.221, "step": 40300 }, { "epoch": 10.753333333333334, "grad_norm": 8.492664337158203, "learning_rate": 3.501155555555556e-06, "loss": 0.2278, "step": 40325 }, { "epoch": 10.76, "grad_norm": 9.246262550354004, "learning_rate": 3.4967111111111113e-06, "loss": 0.2151, "step": 40350 }, { "epoch": 10.766666666666667, "grad_norm": 11.906729698181152, "learning_rate": 3.492266666666667e-06, "loss": 0.2258, "step": 40375 }, { "epoch": 10.773333333333333, "grad_norm": 9.838631629943848, "learning_rate": 3.4878222222222223e-06, "loss": 0.2144, "step": 40400 }, { "epoch": 10.78, "grad_norm": 10.12590503692627, "learning_rate": 3.4833777777777784e-06, "loss": 0.2054, "step": 40425 }, { "epoch": 10.786666666666667, "grad_norm": 8.698495864868164, "learning_rate": 3.4789333333333337e-06, "loss": 0.1965, "step": 40450 }, { "epoch": 10.793333333333333, "grad_norm": 12.896424293518066, "learning_rate": 3.474488888888889e-06, "loss": 0.231, "step": 40475 }, { "epoch": 10.8, "grad_norm": 8.86960220336914, "learning_rate": 3.4700444444444446e-06, "loss": 0.2129, "step": 40500 }, { "epoch": 10.806666666666667, "grad_norm": 10.786004066467285, "learning_rate": 3.4656e-06, "loss": 0.2221, "step": 40525 }, { "epoch": 10.813333333333333, "grad_norm": 9.606515884399414, "learning_rate": 3.461155555555556e-06, "loss": 0.2164, "step": 40550 }, { "epoch": 10.82, "grad_norm": 9.783980369567871, "learning_rate": 3.4567111111111113e-06, "loss": 0.2129, "step": 40575 }, { "epoch": 10.826666666666666, "grad_norm": 10.751503944396973, "learning_rate": 3.452266666666667e-06, "loss": 0.208, "step": 40600 }, { "epoch": 10.833333333333334, "grad_norm": 8.005306243896484, "learning_rate": 3.4478222222222222e-06, "loss": 0.213, "step": 40625 }, { "epoch": 10.84, "grad_norm": 11.042884826660156, "learning_rate": 3.4433777777777784e-06, "loss": 0.2315, "step": 40650 }, { "epoch": 10.846666666666668, "grad_norm": 8.104129791259766, "learning_rate": 3.4389333333333336e-06, "loss": 0.2353, "step": 40675 }, { "epoch": 10.853333333333333, "grad_norm": 8.372936248779297, "learning_rate": 3.4344888888888893e-06, "loss": 0.2339, "step": 40700 }, { "epoch": 10.86, "grad_norm": 8.10669994354248, "learning_rate": 3.4300444444444446e-06, "loss": 0.2306, "step": 40725 }, { "epoch": 10.866666666666667, "grad_norm": 9.934972763061523, "learning_rate": 3.4256e-06, "loss": 0.2418, "step": 40750 }, { "epoch": 10.873333333333333, "grad_norm": 8.461548805236816, "learning_rate": 3.421155555555556e-06, "loss": 0.2105, "step": 40775 }, { "epoch": 10.88, "grad_norm": 8.897908210754395, "learning_rate": 3.4167111111111112e-06, "loss": 0.2148, "step": 40800 }, { "epoch": 10.886666666666667, "grad_norm": 9.41840648651123, "learning_rate": 3.412266666666667e-06, "loss": 0.2304, "step": 40825 }, { "epoch": 10.893333333333333, "grad_norm": 9.180619239807129, "learning_rate": 3.407822222222222e-06, "loss": 0.2347, "step": 40850 }, { "epoch": 10.9, "grad_norm": 12.228923797607422, "learning_rate": 3.4033777777777783e-06, "loss": 0.2179, "step": 40875 }, { "epoch": 10.906666666666666, "grad_norm": 9.898881912231445, "learning_rate": 3.3989333333333336e-06, "loss": 0.2166, "step": 40900 }, { "epoch": 10.913333333333334, "grad_norm": 9.95295238494873, "learning_rate": 3.3944888888888893e-06, "loss": 0.2387, "step": 40925 }, { "epoch": 10.92, "grad_norm": 9.694849014282227, "learning_rate": 3.3900444444444446e-06, "loss": 0.2127, "step": 40950 }, { "epoch": 10.926666666666666, "grad_norm": 6.720644474029541, "learning_rate": 3.3856000000000007e-06, "loss": 0.231, "step": 40975 }, { "epoch": 10.933333333333334, "grad_norm": 6.258913516998291, "learning_rate": 3.381155555555556e-06, "loss": 0.2134, "step": 41000 }, { "epoch": 10.94, "grad_norm": 9.331121444702148, "learning_rate": 3.376711111111111e-06, "loss": 0.208, "step": 41025 }, { "epoch": 10.946666666666667, "grad_norm": 10.947630882263184, "learning_rate": 3.372266666666667e-06, "loss": 0.2106, "step": 41050 }, { "epoch": 10.953333333333333, "grad_norm": 9.022771835327148, "learning_rate": 3.367822222222222e-06, "loss": 0.2325, "step": 41075 }, { "epoch": 10.96, "grad_norm": 7.081749439239502, "learning_rate": 3.3633777777777783e-06, "loss": 0.2145, "step": 41100 }, { "epoch": 10.966666666666667, "grad_norm": 9.957655906677246, "learning_rate": 3.3589333333333336e-06, "loss": 0.2257, "step": 41125 }, { "epoch": 10.973333333333333, "grad_norm": 6.256598472595215, "learning_rate": 3.3544888888888892e-06, "loss": 0.2225, "step": 41150 }, { "epoch": 10.98, "grad_norm": 7.27593994140625, "learning_rate": 3.3500444444444445e-06, "loss": 0.2469, "step": 41175 }, { "epoch": 10.986666666666666, "grad_norm": 7.840013027191162, "learning_rate": 3.3456000000000006e-06, "loss": 0.2074, "step": 41200 }, { "epoch": 10.993333333333334, "grad_norm": 10.640542984008789, "learning_rate": 3.341155555555556e-06, "loss": 0.2174, "step": 41225 }, { "epoch": 11.0, "grad_norm": 8.816511154174805, "learning_rate": 3.336711111111111e-06, "loss": 0.2278, "step": 41250 }, { "epoch": 11.0, "eval_cer": 21.90708681959637, "eval_loss": 0.37804386019706726, "eval_runtime": 2547.8144, "eval_samples_per_second": 1.962, "eval_steps_per_second": 0.245, "step": 41250 }, { "epoch": 11.006666666666666, "grad_norm": 15.166597366333008, "learning_rate": 2.306666666666667e-06, "loss": 0.5278, "step": 41275 }, { "epoch": 11.013333333333334, "grad_norm": 13.222248077392578, "learning_rate": 2.30174358974359e-06, "loss": 0.5175, "step": 41300 }, { "epoch": 11.02, "grad_norm": 12.836710929870605, "learning_rate": 2.2966153846153848e-06, "loss": 0.4571, "step": 41325 }, { "epoch": 11.026666666666667, "grad_norm": 11.110344886779785, "learning_rate": 2.2914871794871797e-06, "loss": 0.4539, "step": 41350 }, { "epoch": 11.033333333333333, "grad_norm": 10.67087173461914, "learning_rate": 2.2863589743589746e-06, "loss": 0.4371, "step": 41375 }, { "epoch": 11.04, "grad_norm": 11.830286026000977, "learning_rate": 2.2812307692307695e-06, "loss": 0.4502, "step": 41400 }, { "epoch": 11.046666666666667, "grad_norm": 13.447662353515625, "learning_rate": 2.2761025641025644e-06, "loss": 0.4428, "step": 41425 }, { "epoch": 11.053333333333333, "grad_norm": 14.398564338684082, "learning_rate": 2.2709743589743592e-06, "loss": 0.4412, "step": 41450 }, { "epoch": 11.06, "grad_norm": 18.60484504699707, "learning_rate": 2.265846153846154e-06, "loss": 0.4463, "step": 41475 }, { "epoch": 11.066666666666666, "grad_norm": 21.679187774658203, "learning_rate": 2.260717948717949e-06, "loss": 0.4367, "step": 41500 }, { "epoch": 11.073333333333334, "grad_norm": 13.706172943115234, "learning_rate": 2.2555897435897435e-06, "loss": 0.4307, "step": 41525 }, { "epoch": 11.08, "grad_norm": 10.671050071716309, "learning_rate": 2.2504615384615384e-06, "loss": 0.4378, "step": 41550 }, { "epoch": 11.086666666666666, "grad_norm": 11.579672813415527, "learning_rate": 2.2453333333333333e-06, "loss": 0.408, "step": 41575 }, { "epoch": 11.093333333333334, "grad_norm": 13.541583061218262, "learning_rate": 2.2402051282051286e-06, "loss": 0.4161, "step": 41600 }, { "epoch": 11.1, "grad_norm": 14.109710693359375, "learning_rate": 2.235076923076923e-06, "loss": 0.439, "step": 41625 }, { "epoch": 11.106666666666667, "grad_norm": 11.12324047088623, "learning_rate": 2.229948717948718e-06, "loss": 0.4111, "step": 41650 }, { "epoch": 11.113333333333333, "grad_norm": 19.95359992980957, "learning_rate": 2.224820512820513e-06, "loss": 0.3931, "step": 41675 }, { "epoch": 11.12, "grad_norm": 16.188575744628906, "learning_rate": 2.219692307692308e-06, "loss": 0.4458, "step": 41700 }, { "epoch": 11.126666666666667, "grad_norm": 13.871394157409668, "learning_rate": 2.2145641025641027e-06, "loss": 0.4235, "step": 41725 }, { "epoch": 11.133333333333333, "grad_norm": 12.802221298217773, "learning_rate": 2.2094358974358976e-06, "loss": 0.4253, "step": 41750 }, { "epoch": 11.14, "grad_norm": 12.051936149597168, "learning_rate": 2.2043076923076925e-06, "loss": 0.4468, "step": 41775 }, { "epoch": 11.146666666666667, "grad_norm": 12.787692070007324, "learning_rate": 2.1991794871794874e-06, "loss": 0.4454, "step": 41800 }, { "epoch": 11.153333333333332, "grad_norm": 11.383238792419434, "learning_rate": 2.1940512820512823e-06, "loss": 0.409, "step": 41825 }, { "epoch": 11.16, "grad_norm": 12.80821418762207, "learning_rate": 2.1889230769230772e-06, "loss": 0.3652, "step": 41850 }, { "epoch": 11.166666666666666, "grad_norm": 12.587796211242676, "learning_rate": 2.183794871794872e-06, "loss": 0.4309, "step": 41875 }, { "epoch": 11.173333333333334, "grad_norm": 15.060142517089844, "learning_rate": 2.1786666666666666e-06, "loss": 0.3865, "step": 41900 }, { "epoch": 11.18, "grad_norm": 12.006288528442383, "learning_rate": 2.1735384615384615e-06, "loss": 0.4075, "step": 41925 }, { "epoch": 11.186666666666667, "grad_norm": 16.849592208862305, "learning_rate": 2.1684102564102564e-06, "loss": 0.4129, "step": 41950 }, { "epoch": 11.193333333333333, "grad_norm": 12.549189567565918, "learning_rate": 2.1632820512820517e-06, "loss": 0.4093, "step": 41975 }, { "epoch": 11.2, "grad_norm": 10.275004386901855, "learning_rate": 2.158153846153846e-06, "loss": 0.4054, "step": 42000 }, { "epoch": 11.206666666666667, "grad_norm": 9.25191593170166, "learning_rate": 2.153025641025641e-06, "loss": 0.418, "step": 42025 }, { "epoch": 11.213333333333333, "grad_norm": 10.872004508972168, "learning_rate": 2.147897435897436e-06, "loss": 0.4209, "step": 42050 }, { "epoch": 11.22, "grad_norm": 10.98090934753418, "learning_rate": 2.142769230769231e-06, "loss": 0.4071, "step": 42075 }, { "epoch": 11.226666666666667, "grad_norm": 12.005315780639648, "learning_rate": 2.1376410256410258e-06, "loss": 0.3957, "step": 42100 }, { "epoch": 11.233333333333333, "grad_norm": 19.972095489501953, "learning_rate": 2.1325128205128207e-06, "loss": 0.3994, "step": 42125 }, { "epoch": 11.24, "grad_norm": 16.287662506103516, "learning_rate": 2.1273846153846156e-06, "loss": 0.3949, "step": 42150 }, { "epoch": 11.246666666666666, "grad_norm": 18.614070892333984, "learning_rate": 2.1222564102564105e-06, "loss": 0.3787, "step": 42175 }, { "epoch": 11.253333333333334, "grad_norm": 11.733295440673828, "learning_rate": 2.1171282051282054e-06, "loss": 0.409, "step": 42200 }, { "epoch": 11.26, "grad_norm": 11.370584487915039, "learning_rate": 2.1120000000000003e-06, "loss": 0.4436, "step": 42225 }, { "epoch": 11.266666666666667, "grad_norm": 9.300686836242676, "learning_rate": 2.106871794871795e-06, "loss": 0.381, "step": 42250 }, { "epoch": 11.273333333333333, "grad_norm": 10.6563720703125, "learning_rate": 2.10174358974359e-06, "loss": 0.3678, "step": 42275 }, { "epoch": 11.28, "grad_norm": 12.713238716125488, "learning_rate": 2.0966153846153846e-06, "loss": 0.3838, "step": 42300 }, { "epoch": 11.286666666666667, "grad_norm": 13.809412956237793, "learning_rate": 2.09148717948718e-06, "loss": 0.4075, "step": 42325 }, { "epoch": 11.293333333333333, "grad_norm": 11.433545112609863, "learning_rate": 2.0863589743589748e-06, "loss": 0.378, "step": 42350 }, { "epoch": 11.3, "grad_norm": 11.168654441833496, "learning_rate": 2.0812307692307692e-06, "loss": 0.3858, "step": 42375 }, { "epoch": 11.306666666666667, "grad_norm": 8.490202903747559, "learning_rate": 2.076102564102564e-06, "loss": 0.3747, "step": 42400 }, { "epoch": 11.313333333333333, "grad_norm": 12.18310260772705, "learning_rate": 2.070974358974359e-06, "loss": 0.3881, "step": 42425 }, { "epoch": 11.32, "grad_norm": 10.493449211120605, "learning_rate": 2.065846153846154e-06, "loss": 0.371, "step": 42450 }, { "epoch": 11.326666666666666, "grad_norm": 13.13383960723877, "learning_rate": 2.060717948717949e-06, "loss": 0.3511, "step": 42475 }, { "epoch": 11.333333333333334, "grad_norm": 10.34811019897461, "learning_rate": 2.0555897435897437e-06, "loss": 0.4024, "step": 42500 }, { "epoch": 11.34, "grad_norm": 11.73831558227539, "learning_rate": 2.0504615384615386e-06, "loss": 0.3935, "step": 42525 }, { "epoch": 11.346666666666668, "grad_norm": 12.059182167053223, "learning_rate": 2.0453333333333335e-06, "loss": 0.3973, "step": 42550 }, { "epoch": 11.353333333333333, "grad_norm": 35.7816047668457, "learning_rate": 2.0402051282051284e-06, "loss": 0.3927, "step": 42575 }, { "epoch": 11.36, "grad_norm": 10.157269477844238, "learning_rate": 2.0350769230769233e-06, "loss": 0.3846, "step": 42600 }, { "epoch": 11.366666666666667, "grad_norm": 17.05206298828125, "learning_rate": 2.0299487179487182e-06, "loss": 0.4099, "step": 42625 }, { "epoch": 11.373333333333333, "grad_norm": 10.768782615661621, "learning_rate": 2.024820512820513e-06, "loss": 0.3766, "step": 42650 }, { "epoch": 11.38, "grad_norm": 12.343291282653809, "learning_rate": 2.0196923076923076e-06, "loss": 0.3915, "step": 42675 }, { "epoch": 11.386666666666667, "grad_norm": 8.71727466583252, "learning_rate": 2.014564102564103e-06, "loss": 0.3151, "step": 42700 }, { "epoch": 11.393333333333333, "grad_norm": 12.413002967834473, "learning_rate": 2.009435897435898e-06, "loss": 0.3515, "step": 42725 }, { "epoch": 11.4, "grad_norm": 15.247143745422363, "learning_rate": 2.0043076923076923e-06, "loss": 0.3466, "step": 42750 }, { "epoch": 11.406666666666666, "grad_norm": 11.704904556274414, "learning_rate": 1.9991794871794872e-06, "loss": 0.3796, "step": 42775 }, { "epoch": 11.413333333333334, "grad_norm": 10.329036712646484, "learning_rate": 1.994051282051282e-06, "loss": 0.3788, "step": 42800 }, { "epoch": 11.42, "grad_norm": 20.308849334716797, "learning_rate": 1.988923076923077e-06, "loss": 0.403, "step": 42825 }, { "epoch": 11.426666666666666, "grad_norm": 11.02400016784668, "learning_rate": 1.983794871794872e-06, "loss": 0.3487, "step": 42850 }, { "epoch": 11.433333333333334, "grad_norm": 10.438562393188477, "learning_rate": 1.978666666666667e-06, "loss": 0.3937, "step": 42875 }, { "epoch": 11.44, "grad_norm": 10.816638946533203, "learning_rate": 1.9735384615384617e-06, "loss": 0.3547, "step": 42900 }, { "epoch": 11.446666666666667, "grad_norm": 13.900740623474121, "learning_rate": 1.9684102564102566e-06, "loss": 0.4027, "step": 42925 }, { "epoch": 11.453333333333333, "grad_norm": 21.14699935913086, "learning_rate": 1.9632820512820515e-06, "loss": 0.366, "step": 42950 }, { "epoch": 11.46, "grad_norm": 15.836438179016113, "learning_rate": 1.9581538461538464e-06, "loss": 0.3446, "step": 42975 }, { "epoch": 11.466666666666667, "grad_norm": 13.876476287841797, "learning_rate": 1.9530256410256413e-06, "loss": 0.3504, "step": 43000 }, { "epoch": 11.473333333333333, "grad_norm": 10.638408660888672, "learning_rate": 1.947897435897436e-06, "loss": 0.3884, "step": 43025 }, { "epoch": 11.48, "grad_norm": 10.901666641235352, "learning_rate": 1.9427692307692307e-06, "loss": 0.3517, "step": 43050 }, { "epoch": 11.486666666666666, "grad_norm": 12.331469535827637, "learning_rate": 1.937641025641026e-06, "loss": 0.3781, "step": 43075 }, { "epoch": 11.493333333333334, "grad_norm": 11.569003105163574, "learning_rate": 1.932512820512821e-06, "loss": 0.3758, "step": 43100 }, { "epoch": 11.5, "grad_norm": 9.608638763427734, "learning_rate": 1.9273846153846154e-06, "loss": 0.3667, "step": 43125 }, { "epoch": 11.506666666666666, "grad_norm": 9.617805480957031, "learning_rate": 1.9222564102564103e-06, "loss": 0.3695, "step": 43150 }, { "epoch": 11.513333333333334, "grad_norm": 18.415346145629883, "learning_rate": 1.917128205128205e-06, "loss": 0.3506, "step": 43175 }, { "epoch": 11.52, "grad_norm": 11.669820785522461, "learning_rate": 1.912e-06, "loss": 0.3499, "step": 43200 }, { "epoch": 11.526666666666667, "grad_norm": 8.499499320983887, "learning_rate": 1.906871794871795e-06, "loss": 0.3793, "step": 43225 }, { "epoch": 11.533333333333333, "grad_norm": 12.542720794677734, "learning_rate": 1.9017435897435899e-06, "loss": 0.3281, "step": 43250 }, { "epoch": 11.54, "grad_norm": 11.157941818237305, "learning_rate": 1.8966153846153848e-06, "loss": 0.3779, "step": 43275 }, { "epoch": 11.546666666666667, "grad_norm": 14.36569595336914, "learning_rate": 1.8914871794871797e-06, "loss": 0.3788, "step": 43300 }, { "epoch": 11.553333333333333, "grad_norm": 11.543529510498047, "learning_rate": 1.8863589743589744e-06, "loss": 0.3959, "step": 43325 }, { "epoch": 11.56, "grad_norm": 14.716355323791504, "learning_rate": 1.8812307692307693e-06, "loss": 0.3924, "step": 43350 }, { "epoch": 11.566666666666666, "grad_norm": 8.106526374816895, "learning_rate": 1.8761025641025644e-06, "loss": 0.3823, "step": 43375 }, { "epoch": 11.573333333333334, "grad_norm": 11.178263664245605, "learning_rate": 1.8709743589743593e-06, "loss": 0.3665, "step": 43400 }, { "epoch": 11.58, "grad_norm": 21.296737670898438, "learning_rate": 1.865846153846154e-06, "loss": 0.3729, "step": 43425 }, { "epoch": 11.586666666666666, "grad_norm": 12.075544357299805, "learning_rate": 1.8607179487179489e-06, "loss": 0.3385, "step": 43450 }, { "epoch": 11.593333333333334, "grad_norm": 11.07917594909668, "learning_rate": 1.8555897435897438e-06, "loss": 0.3463, "step": 43475 }, { "epoch": 11.6, "grad_norm": 10.771078109741211, "learning_rate": 1.8504615384615384e-06, "loss": 0.3356, "step": 43500 }, { "epoch": 11.606666666666667, "grad_norm": 11.500829696655273, "learning_rate": 1.8453333333333333e-06, "loss": 0.359, "step": 43525 }, { "epoch": 11.613333333333333, "grad_norm": 10.157462120056152, "learning_rate": 1.8402051282051285e-06, "loss": 0.3369, "step": 43550 }, { "epoch": 11.62, "grad_norm": 15.266898155212402, "learning_rate": 1.8350769230769234e-06, "loss": 0.3566, "step": 43575 }, { "epoch": 11.626666666666667, "grad_norm": 13.101923942565918, "learning_rate": 1.829948717948718e-06, "loss": 0.3765, "step": 43600 }, { "epoch": 11.633333333333333, "grad_norm": 15.491622924804688, "learning_rate": 1.824820512820513e-06, "loss": 0.348, "step": 43625 }, { "epoch": 11.64, "grad_norm": 11.88241195678711, "learning_rate": 1.8196923076923078e-06, "loss": 0.3456, "step": 43650 }, { "epoch": 11.646666666666667, "grad_norm": 9.493486404418945, "learning_rate": 1.8145641025641027e-06, "loss": 0.3493, "step": 43675 }, { "epoch": 11.653333333333332, "grad_norm": 8.203913688659668, "learning_rate": 1.8094358974358974e-06, "loss": 0.3053, "step": 43700 }, { "epoch": 11.66, "grad_norm": 10.45360279083252, "learning_rate": 1.8043076923076923e-06, "loss": 0.3759, "step": 43725 }, { "epoch": 11.666666666666666, "grad_norm": 9.940714836120605, "learning_rate": 1.7991794871794874e-06, "loss": 0.3779, "step": 43750 }, { "epoch": 11.673333333333334, "grad_norm": 12.08513069152832, "learning_rate": 1.7940512820512823e-06, "loss": 0.2982, "step": 43775 }, { "epoch": 11.68, "grad_norm": 9.20754623413086, "learning_rate": 1.788923076923077e-06, "loss": 0.3454, "step": 43800 }, { "epoch": 11.686666666666667, "grad_norm": 9.613447189331055, "learning_rate": 1.783794871794872e-06, "loss": 0.3496, "step": 43825 }, { "epoch": 11.693333333333333, "grad_norm": 12.057692527770996, "learning_rate": 1.7786666666666668e-06, "loss": 0.3479, "step": 43850 }, { "epoch": 11.7, "grad_norm": 10.425263404846191, "learning_rate": 1.7735384615384617e-06, "loss": 0.3191, "step": 43875 }, { "epoch": 11.706666666666667, "grad_norm": 13.691191673278809, "learning_rate": 1.7684102564102564e-06, "loss": 0.3653, "step": 43900 }, { "epoch": 11.713333333333333, "grad_norm": 9.736536026000977, "learning_rate": 1.7632820512820515e-06, "loss": 0.3117, "step": 43925 }, { "epoch": 11.72, "grad_norm": 12.437732696533203, "learning_rate": 1.7581538461538464e-06, "loss": 0.3074, "step": 43950 }, { "epoch": 11.726666666666667, "grad_norm": 10.264107704162598, "learning_rate": 1.753025641025641e-06, "loss": 0.3554, "step": 43975 }, { "epoch": 11.733333333333333, "grad_norm": 11.718001365661621, "learning_rate": 1.747897435897436e-06, "loss": 0.3628, "step": 44000 }, { "epoch": 11.74, "grad_norm": 10.411917686462402, "learning_rate": 1.742769230769231e-06, "loss": 0.3532, "step": 44025 }, { "epoch": 11.746666666666666, "grad_norm": 9.8396635055542, "learning_rate": 1.7376410256410258e-06, "loss": 0.3569, "step": 44050 }, { "epoch": 11.753333333333334, "grad_norm": 17.7838134765625, "learning_rate": 1.7325128205128205e-06, "loss": 0.3207, "step": 44075 }, { "epoch": 11.76, "grad_norm": 10.717320442199707, "learning_rate": 1.7273846153846156e-06, "loss": 0.3176, "step": 44100 }, { "epoch": 11.766666666666667, "grad_norm": 11.426971435546875, "learning_rate": 1.7222564102564105e-06, "loss": 0.2949, "step": 44125 }, { "epoch": 11.773333333333333, "grad_norm": 9.055909156799316, "learning_rate": 1.7173333333333333e-06, "loss": 0.3622, "step": 44150 }, { "epoch": 11.78, "grad_norm": 10.30154037475586, "learning_rate": 1.7122051282051284e-06, "loss": 0.349, "step": 44175 }, { "epoch": 11.786666666666667, "grad_norm": 10.419609069824219, "learning_rate": 1.7070769230769233e-06, "loss": 0.3184, "step": 44200 }, { "epoch": 11.793333333333333, "grad_norm": 14.654802322387695, "learning_rate": 1.7019487179487182e-06, "loss": 0.3479, "step": 44225 }, { "epoch": 11.8, "grad_norm": 10.331674575805664, "learning_rate": 1.6968205128205128e-06, "loss": 0.3183, "step": 44250 }, { "epoch": 11.806666666666667, "grad_norm": 14.596002578735352, "learning_rate": 1.6916923076923077e-06, "loss": 0.3338, "step": 44275 }, { "epoch": 11.813333333333333, "grad_norm": 10.097070693969727, "learning_rate": 1.6865641025641026e-06, "loss": 0.3603, "step": 44300 }, { "epoch": 11.82, "grad_norm": 9.362231254577637, "learning_rate": 1.6814358974358978e-06, "loss": 0.3669, "step": 44325 }, { "epoch": 11.826666666666666, "grad_norm": 13.43117904663086, "learning_rate": 1.6763076923076924e-06, "loss": 0.3268, "step": 44350 }, { "epoch": 11.833333333333334, "grad_norm": 9.932229042053223, "learning_rate": 1.6711794871794873e-06, "loss": 0.3581, "step": 44375 }, { "epoch": 11.84, "grad_norm": 10.468117713928223, "learning_rate": 1.6660512820512822e-06, "loss": 0.3322, "step": 44400 }, { "epoch": 11.846666666666668, "grad_norm": 13.928693771362305, "learning_rate": 1.6609230769230771e-06, "loss": 0.3798, "step": 44425 }, { "epoch": 11.853333333333333, "grad_norm": 9.625810623168945, "learning_rate": 1.6557948717948718e-06, "loss": 0.3375, "step": 44450 }, { "epoch": 11.86, "grad_norm": 11.153265953063965, "learning_rate": 1.6506666666666667e-06, "loss": 0.3243, "step": 44475 }, { "epoch": 11.866666666666667, "grad_norm": 11.08377742767334, "learning_rate": 1.6455384615384618e-06, "loss": 0.2953, "step": 44500 }, { "epoch": 11.873333333333333, "grad_norm": 9.802847862243652, "learning_rate": 1.6404102564102563e-06, "loss": 0.3101, "step": 44525 }, { "epoch": 11.88, "grad_norm": 13.246006965637207, "learning_rate": 1.6352820512820514e-06, "loss": 0.3467, "step": 44550 }, { "epoch": 11.886666666666667, "grad_norm": 13.705395698547363, "learning_rate": 1.6301538461538463e-06, "loss": 0.31, "step": 44575 }, { "epoch": 11.893333333333333, "grad_norm": 10.647416114807129, "learning_rate": 1.6250256410256412e-06, "loss": 0.3327, "step": 44600 }, { "epoch": 11.9, "grad_norm": 9.683553695678711, "learning_rate": 1.619897435897436e-06, "loss": 0.3693, "step": 44625 }, { "epoch": 11.906666666666666, "grad_norm": 7.383944034576416, "learning_rate": 1.6147692307692308e-06, "loss": 0.3399, "step": 44650 }, { "epoch": 11.913333333333334, "grad_norm": 9.619954109191895, "learning_rate": 1.6096410256410257e-06, "loss": 0.3376, "step": 44675 }, { "epoch": 11.92, "grad_norm": 9.64633846282959, "learning_rate": 1.6045128205128208e-06, "loss": 0.3321, "step": 44700 }, { "epoch": 11.926666666666666, "grad_norm": 9.844879150390625, "learning_rate": 1.5993846153846155e-06, "loss": 0.3382, "step": 44725 }, { "epoch": 11.933333333333334, "grad_norm": 10.737906455993652, "learning_rate": 1.5942564102564104e-06, "loss": 0.3592, "step": 44750 }, { "epoch": 11.94, "grad_norm": 10.652338981628418, "learning_rate": 1.5891282051282053e-06, "loss": 0.3521, "step": 44775 }, { "epoch": 11.946666666666667, "grad_norm": 13.060382843017578, "learning_rate": 1.5840000000000002e-06, "loss": 0.3474, "step": 44800 }, { "epoch": 11.953333333333333, "grad_norm": 12.971427917480469, "learning_rate": 1.578871794871795e-06, "loss": 0.344, "step": 44825 }, { "epoch": 11.96, "grad_norm": 11.275127410888672, "learning_rate": 1.5737435897435898e-06, "loss": 0.3223, "step": 44850 }, { "epoch": 11.966666666666667, "grad_norm": 10.244654655456543, "learning_rate": 1.568615384615385e-06, "loss": 0.2882, "step": 44875 }, { "epoch": 11.973333333333333, "grad_norm": 11.15773868560791, "learning_rate": 1.5634871794871794e-06, "loss": 0.3119, "step": 44900 }, { "epoch": 11.98, "grad_norm": 12.899140357971191, "learning_rate": 1.5583589743589745e-06, "loss": 0.3461, "step": 44925 }, { "epoch": 11.986666666666666, "grad_norm": 8.451346397399902, "learning_rate": 1.5532307692307694e-06, "loss": 0.3199, "step": 44950 }, { "epoch": 11.993333333333334, "grad_norm": 10.094802856445312, "learning_rate": 1.5481025641025643e-06, "loss": 0.3565, "step": 44975 }, { "epoch": 12.0, "grad_norm": 13.002666473388672, "learning_rate": 1.542974358974359e-06, "loss": 0.3404, "step": 45000 }, { "epoch": 12.0, "eval_cer": 23.983005050034475, "eval_loss": 0.40507587790489197, "eval_runtime": 1458.4656, "eval_samples_per_second": 3.428, "eval_steps_per_second": 0.429, "step": 45000 }, { "epoch": 12.006666666666666, "grad_norm": 9.069623947143555, "learning_rate": 1.5378461538461539e-06, "loss": 0.2498, "step": 45025 }, { "epoch": 12.013333333333334, "grad_norm": 9.692069053649902, "learning_rate": 1.5327179487179488e-06, "loss": 0.2746, "step": 45050 }, { "epoch": 12.02, "grad_norm": 11.704968452453613, "learning_rate": 1.5275897435897439e-06, "loss": 0.2745, "step": 45075 }, { "epoch": 12.026666666666667, "grad_norm": 11.392797470092773, "learning_rate": 1.5224615384615386e-06, "loss": 0.2667, "step": 45100 }, { "epoch": 12.033333333333333, "grad_norm": 9.781097412109375, "learning_rate": 1.5173333333333335e-06, "loss": 0.2893, "step": 45125 }, { "epoch": 12.04, "grad_norm": 8.654544830322266, "learning_rate": 1.5122051282051284e-06, "loss": 0.2614, "step": 45150 }, { "epoch": 12.046666666666667, "grad_norm": 8.568087577819824, "learning_rate": 1.5070769230769233e-06, "loss": 0.2561, "step": 45175 }, { "epoch": 12.053333333333333, "grad_norm": 9.03223705291748, "learning_rate": 1.501948717948718e-06, "loss": 0.2632, "step": 45200 }, { "epoch": 12.06, "grad_norm": 9.623234748840332, "learning_rate": 1.4968205128205129e-06, "loss": 0.2829, "step": 45225 }, { "epoch": 12.066666666666666, "grad_norm": 9.350257873535156, "learning_rate": 1.491692307692308e-06, "loss": 0.2613, "step": 45250 }, { "epoch": 12.073333333333334, "grad_norm": 10.9638032913208, "learning_rate": 1.4865641025641027e-06, "loss": 0.2483, "step": 45275 }, { "epoch": 12.08, "grad_norm": 8.601458549499512, "learning_rate": 1.4814358974358976e-06, "loss": 0.2551, "step": 45300 }, { "epoch": 12.086666666666666, "grad_norm": 10.142455101013184, "learning_rate": 1.4763076923076925e-06, "loss": 0.2604, "step": 45325 }, { "epoch": 12.093333333333334, "grad_norm": 10.175455093383789, "learning_rate": 1.4711794871794874e-06, "loss": 0.2425, "step": 45350 }, { "epoch": 12.1, "grad_norm": 9.697066307067871, "learning_rate": 1.466051282051282e-06, "loss": 0.2794, "step": 45375 }, { "epoch": 12.106666666666667, "grad_norm": 8.476906776428223, "learning_rate": 1.460923076923077e-06, "loss": 0.2869, "step": 45400 }, { "epoch": 12.113333333333333, "grad_norm": 8.985982894897461, "learning_rate": 1.4557948717948718e-06, "loss": 0.2602, "step": 45425 }, { "epoch": 12.12, "grad_norm": 7.978854656219482, "learning_rate": 1.450666666666667e-06, "loss": 0.24, "step": 45450 }, { "epoch": 12.126666666666667, "grad_norm": 8.905370712280273, "learning_rate": 1.4455384615384616e-06, "loss": 0.2667, "step": 45475 }, { "epoch": 12.133333333333333, "grad_norm": 8.939201354980469, "learning_rate": 1.4404102564102565e-06, "loss": 0.2767, "step": 45500 }, { "epoch": 12.14, "grad_norm": 9.607330322265625, "learning_rate": 1.4352820512820514e-06, "loss": 0.2461, "step": 45525 }, { "epoch": 12.146666666666667, "grad_norm": 9.831562995910645, "learning_rate": 1.4301538461538463e-06, "loss": 0.2824, "step": 45550 }, { "epoch": 12.153333333333332, "grad_norm": 7.828410625457764, "learning_rate": 1.425025641025641e-06, "loss": 0.2848, "step": 45575 }, { "epoch": 12.16, "grad_norm": 8.644488334655762, "learning_rate": 1.419897435897436e-06, "loss": 0.2564, "step": 45600 }, { "epoch": 12.166666666666666, "grad_norm": 10.3858060836792, "learning_rate": 1.414769230769231e-06, "loss": 0.2615, "step": 45625 }, { "epoch": 12.173333333333334, "grad_norm": 8.302611351013184, "learning_rate": 1.4096410256410257e-06, "loss": 0.2681, "step": 45650 }, { "epoch": 12.18, "grad_norm": 13.080041885375977, "learning_rate": 1.4045128205128206e-06, "loss": 0.2639, "step": 45675 }, { "epoch": 12.186666666666667, "grad_norm": 13.690863609313965, "learning_rate": 1.3993846153846155e-06, "loss": 0.2663, "step": 45700 }, { "epoch": 12.193333333333333, "grad_norm": 7.564510822296143, "learning_rate": 1.3942564102564104e-06, "loss": 0.2735, "step": 45725 }, { "epoch": 12.2, "grad_norm": 7.062065124511719, "learning_rate": 1.3891282051282051e-06, "loss": 0.253, "step": 45750 }, { "epoch": 12.206666666666667, "grad_norm": 9.381158828735352, "learning_rate": 1.384e-06, "loss": 0.2895, "step": 45775 }, { "epoch": 12.213333333333333, "grad_norm": 8.112940788269043, "learning_rate": 1.3788717948717951e-06, "loss": 0.2524, "step": 45800 }, { "epoch": 12.22, "grad_norm": 7.510532379150391, "learning_rate": 1.37374358974359e-06, "loss": 0.2587, "step": 45825 }, { "epoch": 12.226666666666667, "grad_norm": 9.480979919433594, "learning_rate": 1.3686153846153847e-06, "loss": 0.2545, "step": 45850 }, { "epoch": 12.233333333333333, "grad_norm": 5.876282691955566, "learning_rate": 1.3634871794871796e-06, "loss": 0.2547, "step": 45875 }, { "epoch": 12.24, "grad_norm": 8.125492095947266, "learning_rate": 1.3583589743589745e-06, "loss": 0.2784, "step": 45900 }, { "epoch": 12.246666666666666, "grad_norm": 8.985176086425781, "learning_rate": 1.3532307692307694e-06, "loss": 0.2507, "step": 45925 }, { "epoch": 12.253333333333334, "grad_norm": 8.491661071777344, "learning_rate": 1.348102564102564e-06, "loss": 0.2563, "step": 45950 }, { "epoch": 12.26, "grad_norm": 8.004530906677246, "learning_rate": 1.342974358974359e-06, "loss": 0.2798, "step": 45975 }, { "epoch": 12.266666666666667, "grad_norm": 10.112577438354492, "learning_rate": 1.337846153846154e-06, "loss": 0.233, "step": 46000 }, { "epoch": 12.273333333333333, "grad_norm": 10.570455551147461, "learning_rate": 1.332717948717949e-06, "loss": 0.246, "step": 46025 }, { "epoch": 12.28, "grad_norm": 9.592061042785645, "learning_rate": 1.3275897435897437e-06, "loss": 0.2427, "step": 46050 }, { "epoch": 12.286666666666667, "grad_norm": 7.177412509918213, "learning_rate": 1.3224615384615386e-06, "loss": 0.2514, "step": 46075 }, { "epoch": 12.293333333333333, "grad_norm": 12.13245677947998, "learning_rate": 1.3173333333333335e-06, "loss": 0.2825, "step": 46100 }, { "epoch": 12.3, "grad_norm": 9.934832572937012, "learning_rate": 1.3122051282051282e-06, "loss": 0.2907, "step": 46125 }, { "epoch": 12.306666666666667, "grad_norm": 8.697410583496094, "learning_rate": 1.307076923076923e-06, "loss": 0.246, "step": 46150 }, { "epoch": 12.313333333333333, "grad_norm": 8.679930686950684, "learning_rate": 1.3019487179487182e-06, "loss": 0.2472, "step": 46175 }, { "epoch": 12.32, "grad_norm": 7.630397796630859, "learning_rate": 1.296820512820513e-06, "loss": 0.2757, "step": 46200 }, { "epoch": 12.326666666666666, "grad_norm": 11.488412857055664, "learning_rate": 1.2916923076923078e-06, "loss": 0.2462, "step": 46225 }, { "epoch": 12.333333333333334, "grad_norm": 11.439001083374023, "learning_rate": 1.2865641025641027e-06, "loss": 0.2699, "step": 46250 }, { "epoch": 12.34, "grad_norm": 9.322514533996582, "learning_rate": 1.2814358974358976e-06, "loss": 0.2491, "step": 46275 }, { "epoch": 12.346666666666668, "grad_norm": 8.587571144104004, "learning_rate": 1.2765128205128205e-06, "loss": 0.253, "step": 46300 }, { "epoch": 12.353333333333333, "grad_norm": 10.11749267578125, "learning_rate": 1.2713846153846154e-06, "loss": 0.2427, "step": 46325 }, { "epoch": 12.36, "grad_norm": 9.182313919067383, "learning_rate": 1.2662564102564103e-06, "loss": 0.2907, "step": 46350 }, { "epoch": 12.366666666666667, "grad_norm": 10.743731498718262, "learning_rate": 1.2611282051282052e-06, "loss": 0.2559, "step": 46375 }, { "epoch": 12.373333333333333, "grad_norm": 8.97465705871582, "learning_rate": 1.256e-06, "loss": 0.2325, "step": 46400 }, { "epoch": 12.38, "grad_norm": 16.22429847717285, "learning_rate": 1.250871794871795e-06, "loss": 0.2631, "step": 46425 }, { "epoch": 12.386666666666667, "grad_norm": 8.03921890258789, "learning_rate": 1.24574358974359e-06, "loss": 0.2608, "step": 46450 }, { "epoch": 12.393333333333333, "grad_norm": 10.070932388305664, "learning_rate": 1.2406153846153846e-06, "loss": 0.2536, "step": 46475 }, { "epoch": 12.4, "grad_norm": 9.010415077209473, "learning_rate": 1.2354871794871797e-06, "loss": 0.268, "step": 46500 }, { "epoch": 12.406666666666666, "grad_norm": 9.157325744628906, "learning_rate": 1.2303589743589744e-06, "loss": 0.2367, "step": 46525 }, { "epoch": 12.413333333333334, "grad_norm": 10.501956939697266, "learning_rate": 1.2252307692307693e-06, "loss": 0.2741, "step": 46550 }, { "epoch": 12.42, "grad_norm": 15.640753746032715, "learning_rate": 1.2201025641025642e-06, "loss": 0.2664, "step": 46575 }, { "epoch": 12.426666666666666, "grad_norm": 10.35642147064209, "learning_rate": 1.2149743589743591e-06, "loss": 0.2511, "step": 46600 }, { "epoch": 12.433333333333334, "grad_norm": 8.7666654586792, "learning_rate": 1.209846153846154e-06, "loss": 0.22, "step": 46625 }, { "epoch": 12.44, "grad_norm": 8.721338272094727, "learning_rate": 1.2047179487179487e-06, "loss": 0.2644, "step": 46650 }, { "epoch": 12.446666666666667, "grad_norm": 8.535083770751953, "learning_rate": 1.1995897435897436e-06, "loss": 0.2603, "step": 46675 }, { "epoch": 12.453333333333333, "grad_norm": 9.418352127075195, "learning_rate": 1.1944615384615385e-06, "loss": 0.2713, "step": 46700 }, { "epoch": 12.46, "grad_norm": 10.69389820098877, "learning_rate": 1.1893333333333334e-06, "loss": 0.2423, "step": 46725 }, { "epoch": 12.466666666666667, "grad_norm": 9.688145637512207, "learning_rate": 1.1842051282051283e-06, "loss": 0.2779, "step": 46750 }, { "epoch": 12.473333333333333, "grad_norm": 8.534907341003418, "learning_rate": 1.1790769230769232e-06, "loss": 0.2477, "step": 46775 }, { "epoch": 12.48, "grad_norm": 16.393978118896484, "learning_rate": 1.173948717948718e-06, "loss": 0.2509, "step": 46800 }, { "epoch": 12.486666666666666, "grad_norm": 10.600202560424805, "learning_rate": 1.168820512820513e-06, "loss": 0.2484, "step": 46825 }, { "epoch": 12.493333333333334, "grad_norm": 12.242576599121094, "learning_rate": 1.1636923076923077e-06, "loss": 0.2725, "step": 46850 }, { "epoch": 12.5, "grad_norm": 13.288383483886719, "learning_rate": 1.1585641025641028e-06, "loss": 0.2679, "step": 46875 }, { "epoch": 12.506666666666666, "grad_norm": 9.260838508605957, "learning_rate": 1.1534358974358975e-06, "loss": 0.2658, "step": 46900 }, { "epoch": 12.513333333333334, "grad_norm": 9.817148208618164, "learning_rate": 1.1483076923076924e-06, "loss": 0.2738, "step": 46925 }, { "epoch": 12.52, "grad_norm": 8.410572052001953, "learning_rate": 1.1431794871794873e-06, "loss": 0.2649, "step": 46950 }, { "epoch": 12.526666666666667, "grad_norm": 7.984658718109131, "learning_rate": 1.1380512820512822e-06, "loss": 0.2558, "step": 46975 }, { "epoch": 12.533333333333333, "grad_norm": 8.71600341796875, "learning_rate": 1.132923076923077e-06, "loss": 0.237, "step": 47000 }, { "epoch": 12.54, "grad_norm": 8.81185245513916, "learning_rate": 1.1277948717948718e-06, "loss": 0.2803, "step": 47025 }, { "epoch": 12.546666666666667, "grad_norm": 9.599742889404297, "learning_rate": 1.1226666666666667e-06, "loss": 0.2297, "step": 47050 }, { "epoch": 12.553333333333333, "grad_norm": 7.097565650939941, "learning_rate": 1.1175384615384616e-06, "loss": 0.2322, "step": 47075 }, { "epoch": 12.56, "grad_norm": 8.685497283935547, "learning_rate": 1.1124102564102565e-06, "loss": 0.227, "step": 47100 }, { "epoch": 12.566666666666666, "grad_norm": 7.79608678817749, "learning_rate": 1.1072820512820514e-06, "loss": 0.2423, "step": 47125 }, { "epoch": 12.573333333333334, "grad_norm": 10.449824333190918, "learning_rate": 1.1021538461538463e-06, "loss": 0.2434, "step": 47150 }, { "epoch": 12.58, "grad_norm": 10.485478401184082, "learning_rate": 1.0970256410256412e-06, "loss": 0.234, "step": 47175 }, { "epoch": 12.586666666666666, "grad_norm": 7.334437847137451, "learning_rate": 1.091897435897436e-06, "loss": 0.2409, "step": 47200 }, { "epoch": 12.593333333333334, "grad_norm": 14.594451904296875, "learning_rate": 1.0867692307692307e-06, "loss": 0.2363, "step": 47225 }, { "epoch": 12.6, "grad_norm": 8.84241771697998, "learning_rate": 1.0816410256410259e-06, "loss": 0.2683, "step": 47250 }, { "epoch": 12.606666666666667, "grad_norm": 9.846715927124023, "learning_rate": 1.0765128205128205e-06, "loss": 0.2547, "step": 47275 }, { "epoch": 12.613333333333333, "grad_norm": 10.058320999145508, "learning_rate": 1.0713846153846154e-06, "loss": 0.26, "step": 47300 }, { "epoch": 12.62, "grad_norm": 7.8140130043029785, "learning_rate": 1.0662564102564103e-06, "loss": 0.2577, "step": 47325 }, { "epoch": 12.626666666666667, "grad_norm": 7.795167922973633, "learning_rate": 1.0611282051282052e-06, "loss": 0.2564, "step": 47350 }, { "epoch": 12.633333333333333, "grad_norm": 9.24618911743164, "learning_rate": 1.0560000000000001e-06, "loss": 0.2454, "step": 47375 }, { "epoch": 12.64, "grad_norm": 9.417901039123535, "learning_rate": 1.050871794871795e-06, "loss": 0.2557, "step": 47400 }, { "epoch": 12.646666666666667, "grad_norm": 10.74663257598877, "learning_rate": 1.04574358974359e-06, "loss": 0.2582, "step": 47425 }, { "epoch": 12.653333333333332, "grad_norm": 9.51258373260498, "learning_rate": 1.0406153846153846e-06, "loss": 0.2374, "step": 47450 }, { "epoch": 12.66, "grad_norm": 12.313557624816895, "learning_rate": 1.0354871794871795e-06, "loss": 0.241, "step": 47475 }, { "epoch": 12.666666666666666, "grad_norm": 9.58333683013916, "learning_rate": 1.0303589743589744e-06, "loss": 0.266, "step": 47500 }, { "epoch": 12.673333333333334, "grad_norm": 8.24576187133789, "learning_rate": 1.0252307692307693e-06, "loss": 0.2569, "step": 47525 }, { "epoch": 12.68, "grad_norm": 9.750232696533203, "learning_rate": 1.0201025641025642e-06, "loss": 0.2578, "step": 47550 }, { "epoch": 12.686666666666667, "grad_norm": 7.943435192108154, "learning_rate": 1.0149743589743591e-06, "loss": 0.2399, "step": 47575 }, { "epoch": 12.693333333333333, "grad_norm": 15.548172950744629, "learning_rate": 1.0098461538461538e-06, "loss": 0.2725, "step": 47600 }, { "epoch": 12.7, "grad_norm": 10.077510833740234, "learning_rate": 1.004717948717949e-06, "loss": 0.2479, "step": 47625 }, { "epoch": 12.706666666666667, "grad_norm": 11.965564727783203, "learning_rate": 9.995897435897436e-07, "loss": 0.2585, "step": 47650 }, { "epoch": 12.713333333333333, "grad_norm": 10.520625114440918, "learning_rate": 9.944615384615385e-07, "loss": 0.2726, "step": 47675 }, { "epoch": 12.72, "grad_norm": 8.089265823364258, "learning_rate": 9.893333333333334e-07, "loss": 0.2383, "step": 47700 }, { "epoch": 12.726666666666667, "grad_norm": 8.8562650680542, "learning_rate": 9.842051282051283e-07, "loss": 0.2479, "step": 47725 }, { "epoch": 12.733333333333333, "grad_norm": 9.59893798828125, "learning_rate": 9.790769230769232e-07, "loss": 0.2784, "step": 47750 }, { "epoch": 12.74, "grad_norm": 8.595308303833008, "learning_rate": 9.73948717948718e-07, "loss": 0.2553, "step": 47775 }, { "epoch": 12.746666666666666, "grad_norm": 12.760763168334961, "learning_rate": 9.69025641025641e-07, "loss": 0.2716, "step": 47800 }, { "epoch": 12.753333333333334, "grad_norm": 8.464776992797852, "learning_rate": 9.63897435897436e-07, "loss": 0.2557, "step": 47825 }, { "epoch": 12.76, "grad_norm": 9.461286544799805, "learning_rate": 9.587692307692309e-07, "loss": 0.2609, "step": 47850 }, { "epoch": 12.766666666666667, "grad_norm": 9.372247695922852, "learning_rate": 9.536410256410257e-07, "loss": 0.2315, "step": 47875 }, { "epoch": 12.773333333333333, "grad_norm": 9.120209693908691, "learning_rate": 9.485128205128207e-07, "loss": 0.2616, "step": 47900 }, { "epoch": 12.78, "grad_norm": 8.16459846496582, "learning_rate": 9.433846153846155e-07, "loss": 0.2291, "step": 47925 }, { "epoch": 12.786666666666667, "grad_norm": 10.1221342086792, "learning_rate": 9.382564102564104e-07, "loss": 0.2604, "step": 47950 }, { "epoch": 12.793333333333333, "grad_norm": 7.598485946655273, "learning_rate": 9.331282051282053e-07, "loss": 0.2707, "step": 47975 }, { "epoch": 12.8, "grad_norm": 10.791184425354004, "learning_rate": 9.28e-07, "loss": 0.2585, "step": 48000 }, { "epoch": 12.806666666666667, "grad_norm": 8.266297340393066, "learning_rate": 9.22871794871795e-07, "loss": 0.2345, "step": 48025 }, { "epoch": 12.813333333333333, "grad_norm": 8.607254981994629, "learning_rate": 9.177435897435897e-07, "loss": 0.2413, "step": 48050 }, { "epoch": 12.82, "grad_norm": 8.715702056884766, "learning_rate": 9.126153846153847e-07, "loss": 0.2218, "step": 48075 }, { "epoch": 12.826666666666666, "grad_norm": 8.239347457885742, "learning_rate": 9.074871794871795e-07, "loss": 0.248, "step": 48100 }, { "epoch": 12.833333333333334, "grad_norm": 14.240856170654297, "learning_rate": 9.023589743589744e-07, "loss": 0.2513, "step": 48125 }, { "epoch": 12.84, "grad_norm": 8.369645118713379, "learning_rate": 8.972307692307692e-07, "loss": 0.2454, "step": 48150 }, { "epoch": 12.846666666666668, "grad_norm": 9.057435989379883, "learning_rate": 8.921025641025642e-07, "loss": 0.2309, "step": 48175 }, { "epoch": 12.853333333333333, "grad_norm": 7.934736251831055, "learning_rate": 8.86974358974359e-07, "loss": 0.2573, "step": 48200 }, { "epoch": 12.86, "grad_norm": 8.460871696472168, "learning_rate": 8.818461538461539e-07, "loss": 0.2367, "step": 48225 }, { "epoch": 12.866666666666667, "grad_norm": 17.691099166870117, "learning_rate": 8.767179487179487e-07, "loss": 0.2264, "step": 48250 }, { "epoch": 12.873333333333333, "grad_norm": 9.208739280700684, "learning_rate": 8.715897435897437e-07, "loss": 0.2478, "step": 48275 }, { "epoch": 12.88, "grad_norm": 8.973709106445312, "learning_rate": 8.664615384615385e-07, "loss": 0.2421, "step": 48300 }, { "epoch": 12.886666666666667, "grad_norm": 8.597132682800293, "learning_rate": 8.613333333333334e-07, "loss": 0.2129, "step": 48325 }, { "epoch": 12.893333333333333, "grad_norm": 21.30763816833496, "learning_rate": 8.562051282051283e-07, "loss": 0.2205, "step": 48350 }, { "epoch": 12.9, "grad_norm": 6.567498207092285, "learning_rate": 8.510769230769231e-07, "loss": 0.238, "step": 48375 }, { "epoch": 12.906666666666666, "grad_norm": 11.551224708557129, "learning_rate": 8.45948717948718e-07, "loss": 0.2488, "step": 48400 }, { "epoch": 12.913333333333334, "grad_norm": 8.4740571975708, "learning_rate": 8.408205128205128e-07, "loss": 0.2585, "step": 48425 }, { "epoch": 12.92, "grad_norm": 11.008130073547363, "learning_rate": 8.356923076923078e-07, "loss": 0.2559, "step": 48450 }, { "epoch": 12.926666666666666, "grad_norm": 8.542204856872559, "learning_rate": 8.305641025641026e-07, "loss": 0.2271, "step": 48475 }, { "epoch": 12.933333333333334, "grad_norm": 9.94509506225586, "learning_rate": 8.254358974358975e-07, "loss": 0.2753, "step": 48500 }, { "epoch": 12.94, "grad_norm": 11.426580429077148, "learning_rate": 8.203076923076923e-07, "loss": 0.2596, "step": 48525 }, { "epoch": 12.946666666666667, "grad_norm": 8.867430686950684, "learning_rate": 8.151794871794873e-07, "loss": 0.2282, "step": 48550 }, { "epoch": 12.953333333333333, "grad_norm": 9.949235916137695, "learning_rate": 8.100512820512821e-07, "loss": 0.2343, "step": 48575 }, { "epoch": 12.96, "grad_norm": 9.567477226257324, "learning_rate": 8.04923076923077e-07, "loss": 0.2582, "step": 48600 }, { "epoch": 12.966666666666667, "grad_norm": 8.139339447021484, "learning_rate": 7.997948717948718e-07, "loss": 0.2548, "step": 48625 }, { "epoch": 12.973333333333333, "grad_norm": 7.1360297203063965, "learning_rate": 7.946666666666668e-07, "loss": 0.2576, "step": 48650 }, { "epoch": 12.98, "grad_norm": 8.041204452514648, "learning_rate": 7.895384615384616e-07, "loss": 0.2009, "step": 48675 }, { "epoch": 12.986666666666666, "grad_norm": 9.142930030822754, "learning_rate": 7.844102564102565e-07, "loss": 0.2517, "step": 48700 }, { "epoch": 12.993333333333334, "grad_norm": 10.261021614074707, "learning_rate": 7.792820512820514e-07, "loss": 0.2487, "step": 48725 }, { "epoch": 13.0, "grad_norm": 12.877338409423828, "learning_rate": 7.741538461538463e-07, "loss": 0.2275, "step": 48750 }, { "epoch": 13.0, "eval_cer": 25.339619477107135, "eval_loss": 0.4223245084285736, "eval_runtime": 1193.5584, "eval_samples_per_second": 4.189, "eval_steps_per_second": 0.524, "step": 48750 }, { "epoch": 13.006666666666666, "grad_norm": 7.160138130187988, "learning_rate": 7.690256410256411e-07, "loss": 0.1989, "step": 48775 }, { "epoch": 13.013333333333334, "grad_norm": 8.397212028503418, "learning_rate": 7.638974358974359e-07, "loss": 0.1836, "step": 48800 }, { "epoch": 13.02, "grad_norm": 6.66758394241333, "learning_rate": 7.587692307692309e-07, "loss": 0.2017, "step": 48825 }, { "epoch": 13.026666666666667, "grad_norm": 7.866626262664795, "learning_rate": 7.536410256410257e-07, "loss": 0.2045, "step": 48850 }, { "epoch": 13.033333333333333, "grad_norm": 10.153250694274902, "learning_rate": 7.485128205128206e-07, "loss": 0.1998, "step": 48875 }, { "epoch": 13.04, "grad_norm": 7.451866626739502, "learning_rate": 7.433846153846154e-07, "loss": 0.2127, "step": 48900 }, { "epoch": 13.046666666666667, "grad_norm": 7.888492107391357, "learning_rate": 7.382564102564104e-07, "loss": 0.1927, "step": 48925 }, { "epoch": 13.053333333333333, "grad_norm": 6.703000545501709, "learning_rate": 7.331282051282052e-07, "loss": 0.217, "step": 48950 }, { "epoch": 13.06, "grad_norm": 8.597017288208008, "learning_rate": 7.280000000000001e-07, "loss": 0.1874, "step": 48975 }, { "epoch": 13.066666666666666, "grad_norm": 9.595951080322266, "learning_rate": 7.228717948717949e-07, "loss": 0.2152, "step": 49000 }, { "epoch": 13.073333333333334, "grad_norm": 6.168713569641113, "learning_rate": 7.177435897435899e-07, "loss": 0.1814, "step": 49025 }, { "epoch": 13.08, "grad_norm": 7.700543403625488, "learning_rate": 7.126153846153847e-07, "loss": 0.232, "step": 49050 }, { "epoch": 13.086666666666666, "grad_norm": 10.623165130615234, "learning_rate": 7.074871794871796e-07, "loss": 0.2134, "step": 49075 }, { "epoch": 13.093333333333334, "grad_norm": 8.219307899475098, "learning_rate": 7.023589743589745e-07, "loss": 0.2032, "step": 49100 }, { "epoch": 13.1, "grad_norm": 8.550110816955566, "learning_rate": 6.972307692307693e-07, "loss": 0.212, "step": 49125 }, { "epoch": 13.106666666666667, "grad_norm": 7.688498497009277, "learning_rate": 6.921025641025641e-07, "loss": 0.21, "step": 49150 }, { "epoch": 13.113333333333333, "grad_norm": 7.36121129989624, "learning_rate": 6.869743589743589e-07, "loss": 0.2186, "step": 49175 }, { "epoch": 13.12, "grad_norm": 9.275517463684082, "learning_rate": 6.818461538461539e-07, "loss": 0.1745, "step": 49200 }, { "epoch": 13.126666666666667, "grad_norm": 8.284761428833008, "learning_rate": 6.767179487179487e-07, "loss": 0.2224, "step": 49225 }, { "epoch": 13.133333333333333, "grad_norm": 9.281449317932129, "learning_rate": 6.715897435897436e-07, "loss": 0.2029, "step": 49250 }, { "epoch": 13.14, "grad_norm": 6.9564433097839355, "learning_rate": 6.664615384615384e-07, "loss": 0.2072, "step": 49275 }, { "epoch": 13.146666666666667, "grad_norm": 8.498212814331055, "learning_rate": 6.613333333333334e-07, "loss": 0.2129, "step": 49300 }, { "epoch": 13.153333333333332, "grad_norm": 8.491124153137207, "learning_rate": 6.562051282051282e-07, "loss": 0.2188, "step": 49325 }, { "epoch": 13.16, "grad_norm": 9.636994361877441, "learning_rate": 6.510769230769231e-07, "loss": 0.1963, "step": 49350 }, { "epoch": 13.166666666666666, "grad_norm": 8.832295417785645, "learning_rate": 6.459487179487179e-07, "loss": 0.1904, "step": 49375 }, { "epoch": 13.173333333333334, "grad_norm": 8.35982608795166, "learning_rate": 6.408205128205129e-07, "loss": 0.211, "step": 49400 }, { "epoch": 13.18, "grad_norm": 8.728853225708008, "learning_rate": 6.356923076923077e-07, "loss": 0.2031, "step": 49425 }, { "epoch": 13.186666666666667, "grad_norm": 10.942280769348145, "learning_rate": 6.305641025641026e-07, "loss": 0.2126, "step": 49450 }, { "epoch": 13.193333333333333, "grad_norm": 6.525952339172363, "learning_rate": 6.254358974358975e-07, "loss": 0.1953, "step": 49475 }, { "epoch": 13.2, "grad_norm": 6.243885517120361, "learning_rate": 6.203076923076923e-07, "loss": 0.1944, "step": 49500 }, { "epoch": 13.206666666666667, "grad_norm": 6.747547149658203, "learning_rate": 6.151794871794872e-07, "loss": 0.1902, "step": 49525 }, { "epoch": 13.213333333333333, "grad_norm": 9.15246868133545, "learning_rate": 6.100512820512821e-07, "loss": 0.2278, "step": 49550 }, { "epoch": 13.22, "grad_norm": 9.421453475952148, "learning_rate": 6.04923076923077e-07, "loss": 0.2227, "step": 49575 }, { "epoch": 13.226666666666667, "grad_norm": 7.677231788635254, "learning_rate": 5.997948717948718e-07, "loss": 0.1843, "step": 49600 }, { "epoch": 13.233333333333333, "grad_norm": 7.462013244628906, "learning_rate": 5.946666666666667e-07, "loss": 0.1917, "step": 49625 }, { "epoch": 13.24, "grad_norm": 6.79779052734375, "learning_rate": 5.895384615384616e-07, "loss": 0.1833, "step": 49650 }, { "epoch": 13.246666666666666, "grad_norm": 7.351281642913818, "learning_rate": 5.844102564102565e-07, "loss": 0.2072, "step": 49675 }, { "epoch": 13.253333333333334, "grad_norm": 6.8945441246032715, "learning_rate": 5.792820512820514e-07, "loss": 0.1774, "step": 49700 }, { "epoch": 13.26, "grad_norm": 7.235414981842041, "learning_rate": 5.741538461538462e-07, "loss": 0.1912, "step": 49725 }, { "epoch": 13.266666666666667, "grad_norm": 8.885470390319824, "learning_rate": 5.690256410256411e-07, "loss": 0.2142, "step": 49750 }, { "epoch": 13.273333333333333, "grad_norm": 5.818114757537842, "learning_rate": 5.638974358974359e-07, "loss": 0.2164, "step": 49775 }, { "epoch": 13.28, "grad_norm": 8.47972583770752, "learning_rate": 5.587692307692308e-07, "loss": 0.2149, "step": 49800 }, { "epoch": 13.286666666666667, "grad_norm": 9.521103858947754, "learning_rate": 5.536410256410257e-07, "loss": 0.2044, "step": 49825 }, { "epoch": 13.293333333333333, "grad_norm": 8.749218940734863, "learning_rate": 5.485128205128206e-07, "loss": 0.2036, "step": 49850 }, { "epoch": 13.3, "grad_norm": 9.518464088439941, "learning_rate": 5.433846153846154e-07, "loss": 0.1958, "step": 49875 }, { "epoch": 13.306666666666667, "grad_norm": 5.796483993530273, "learning_rate": 5.382564102564103e-07, "loss": 0.1916, "step": 49900 }, { "epoch": 13.313333333333333, "grad_norm": 8.592083930969238, "learning_rate": 5.331282051282052e-07, "loss": 0.1928, "step": 49925 }, { "epoch": 13.32, "grad_norm": 7.620384693145752, "learning_rate": 5.280000000000001e-07, "loss": 0.1982, "step": 49950 }, { "epoch": 13.326666666666666, "grad_norm": 7.510669708251953, "learning_rate": 5.22871794871795e-07, "loss": 0.1957, "step": 49975 }, { "epoch": 13.333333333333334, "grad_norm": 8.860283851623535, "learning_rate": 5.177435897435898e-07, "loss": 0.1989, "step": 50000 }, { "epoch": 13.34, "grad_norm": 8.569646835327148, "learning_rate": 5.126153846153847e-07, "loss": 0.2041, "step": 50025 }, { "epoch": 13.346666666666668, "grad_norm": 7.723262310028076, "learning_rate": 5.074871794871796e-07, "loss": 0.1977, "step": 50050 }, { "epoch": 13.353333333333333, "grad_norm": 10.592819213867188, "learning_rate": 5.023589743589745e-07, "loss": 0.1692, "step": 50075 }, { "epoch": 13.36, "grad_norm": 7.267271995544434, "learning_rate": 4.972307692307693e-07, "loss": 0.2094, "step": 50100 }, { "epoch": 13.366666666666667, "grad_norm": 8.089984893798828, "learning_rate": 4.921025641025642e-07, "loss": 0.199, "step": 50125 }, { "epoch": 13.373333333333333, "grad_norm": 14.309980392456055, "learning_rate": 4.86974358974359e-07, "loss": 0.2003, "step": 50150 }, { "epoch": 13.38, "grad_norm": 7.201350688934326, "learning_rate": 4.818461538461538e-07, "loss": 0.2029, "step": 50175 }, { "epoch": 13.386666666666667, "grad_norm": 6.891904354095459, "learning_rate": 4.7671794871794874e-07, "loss": 0.1833, "step": 50200 }, { "epoch": 13.393333333333333, "grad_norm": 9.434260368347168, "learning_rate": 4.715897435897436e-07, "loss": 0.1966, "step": 50225 }, { "epoch": 13.4, "grad_norm": 6.520473957061768, "learning_rate": 4.664615384615385e-07, "loss": 0.1991, "step": 50250 }, { "epoch": 13.406666666666666, "grad_norm": 7.208672523498535, "learning_rate": 4.6133333333333334e-07, "loss": 0.2031, "step": 50275 }, { "epoch": 13.413333333333334, "grad_norm": 7.870147228240967, "learning_rate": 4.5620512820512823e-07, "loss": 0.1984, "step": 50300 }, { "epoch": 13.42, "grad_norm": 11.4440336227417, "learning_rate": 4.510769230769231e-07, "loss": 0.2135, "step": 50325 }, { "epoch": 13.426666666666666, "grad_norm": 8.417885780334473, "learning_rate": 4.45948717948718e-07, "loss": 0.2156, "step": 50350 }, { "epoch": 13.433333333333334, "grad_norm": 7.304738521575928, "learning_rate": 4.408205128205129e-07, "loss": 0.2019, "step": 50375 }, { "epoch": 13.44, "grad_norm": 5.660967826843262, "learning_rate": 4.356923076923077e-07, "loss": 0.2018, "step": 50400 }, { "epoch": 13.446666666666667, "grad_norm": 8.80036735534668, "learning_rate": 4.305641025641026e-07, "loss": 0.1843, "step": 50425 }, { "epoch": 13.453333333333333, "grad_norm": 9.395598411560059, "learning_rate": 4.2543589743589747e-07, "loss": 0.1941, "step": 50450 }, { "epoch": 13.46, "grad_norm": 10.42099380493164, "learning_rate": 4.2030769230769237e-07, "loss": 0.1956, "step": 50475 }, { "epoch": 13.466666666666667, "grad_norm": 11.766548156738281, "learning_rate": 4.151794871794872e-07, "loss": 0.2309, "step": 50500 }, { "epoch": 13.473333333333333, "grad_norm": 7.114517688751221, "learning_rate": 4.100512820512821e-07, "loss": 0.195, "step": 50525 }, { "epoch": 13.48, "grad_norm": 12.075444221496582, "learning_rate": 4.04923076923077e-07, "loss": 0.2297, "step": 50550 }, { "epoch": 13.486666666666666, "grad_norm": 8.929732322692871, "learning_rate": 3.997948717948718e-07, "loss": 0.1917, "step": 50575 }, { "epoch": 13.493333333333334, "grad_norm": 6.897775650024414, "learning_rate": 3.9466666666666665e-07, "loss": 0.2076, "step": 50600 }, { "epoch": 13.5, "grad_norm": 7.953386306762695, "learning_rate": 3.8953846153846155e-07, "loss": 0.2099, "step": 50625 }, { "epoch": 13.506666666666666, "grad_norm": 8.844167709350586, "learning_rate": 3.844102564102564e-07, "loss": 0.2022, "step": 50650 }, { "epoch": 13.513333333333334, "grad_norm": 9.743889808654785, "learning_rate": 3.792820512820513e-07, "loss": 0.201, "step": 50675 }, { "epoch": 13.52, "grad_norm": 10.672530174255371, "learning_rate": 3.741538461538462e-07, "loss": 0.2021, "step": 50700 }, { "epoch": 13.526666666666667, "grad_norm": 10.148331642150879, "learning_rate": 3.6902564102564104e-07, "loss": 0.1959, "step": 50725 }, { "epoch": 13.533333333333333, "grad_norm": 6.605070114135742, "learning_rate": 3.6389743589743594e-07, "loss": 0.1973, "step": 50750 }, { "epoch": 13.54, "grad_norm": 10.310884475708008, "learning_rate": 3.587692307692308e-07, "loss": 0.2019, "step": 50775 }, { "epoch": 13.546666666666667, "grad_norm": 8.405265808105469, "learning_rate": 3.536410256410257e-07, "loss": 0.2155, "step": 50800 }, { "epoch": 13.553333333333333, "grad_norm": 6.863169193267822, "learning_rate": 3.4851282051282053e-07, "loss": 0.1993, "step": 50825 }, { "epoch": 13.56, "grad_norm": 7.672533988952637, "learning_rate": 3.4338461538461543e-07, "loss": 0.2008, "step": 50850 }, { "epoch": 13.566666666666666, "grad_norm": 7.605981826782227, "learning_rate": 3.382564102564103e-07, "loss": 0.1881, "step": 50875 }, { "epoch": 13.573333333333334, "grad_norm": 11.9002046585083, "learning_rate": 3.331282051282052e-07, "loss": 0.2197, "step": 50900 }, { "epoch": 13.58, "grad_norm": 6.1264166831970215, "learning_rate": 3.280000000000001e-07, "loss": 0.1982, "step": 50925 }, { "epoch": 13.586666666666666, "grad_norm": 7.630119323730469, "learning_rate": 3.228717948717949e-07, "loss": 0.1784, "step": 50950 }, { "epoch": 13.593333333333334, "grad_norm": 6.6885151863098145, "learning_rate": 3.177435897435897e-07, "loss": 0.1986, "step": 50975 }, { "epoch": 13.6, "grad_norm": 5.784089088439941, "learning_rate": 3.126153846153846e-07, "loss": 0.2103, "step": 51000 }, { "epoch": 13.606666666666667, "grad_norm": 8.705634117126465, "learning_rate": 3.074871794871795e-07, "loss": 0.2025, "step": 51025 }, { "epoch": 13.613333333333333, "grad_norm": 8.763236999511719, "learning_rate": 3.023589743589744e-07, "loss": 0.1915, "step": 51050 }, { "epoch": 13.62, "grad_norm": 9.33553409576416, "learning_rate": 2.9723076923076926e-07, "loss": 0.1892, "step": 51075 }, { "epoch": 13.626666666666667, "grad_norm": 8.680388450622559, "learning_rate": 2.921025641025641e-07, "loss": 0.2041, "step": 51100 }, { "epoch": 13.633333333333333, "grad_norm": 7.286123752593994, "learning_rate": 2.86974358974359e-07, "loss": 0.2009, "step": 51125 }, { "epoch": 13.64, "grad_norm": 7.96429967880249, "learning_rate": 2.8184615384615385e-07, "loss": 0.185, "step": 51150 }, { "epoch": 13.646666666666667, "grad_norm": 8.696196556091309, "learning_rate": 2.7671794871794875e-07, "loss": 0.2132, "step": 51175 }, { "epoch": 13.653333333333332, "grad_norm": 7.8093085289001465, "learning_rate": 2.715897435897436e-07, "loss": 0.2017, "step": 51200 }, { "epoch": 13.66, "grad_norm": 9.710748672485352, "learning_rate": 2.664615384615385e-07, "loss": 0.2001, "step": 51225 }, { "epoch": 13.666666666666666, "grad_norm": 5.312051296234131, "learning_rate": 2.6153846153846157e-07, "loss": 0.21, "step": 51250 }, { "epoch": 13.673333333333334, "grad_norm": 7.604301929473877, "learning_rate": 2.564102564102564e-07, "loss": 0.2112, "step": 51275 }, { "epoch": 13.68, "grad_norm": 8.575620651245117, "learning_rate": 2.512820512820513e-07, "loss": 0.204, "step": 51300 }, { "epoch": 13.686666666666667, "grad_norm": 5.624370098114014, "learning_rate": 2.4615384615384616e-07, "loss": 0.1979, "step": 51325 }, { "epoch": 13.693333333333333, "grad_norm": 8.370994567871094, "learning_rate": 2.4102564102564106e-07, "loss": 0.2032, "step": 51350 }, { "epoch": 13.7, "grad_norm": 10.024121284484863, "learning_rate": 2.3589743589743593e-07, "loss": 0.2011, "step": 51375 }, { "epoch": 13.706666666666667, "grad_norm": 9.75583553314209, "learning_rate": 2.307692307692308e-07, "loss": 0.1953, "step": 51400 }, { "epoch": 13.713333333333333, "grad_norm": 8.544894218444824, "learning_rate": 2.2564102564102568e-07, "loss": 0.1901, "step": 51425 }, { "epoch": 13.72, "grad_norm": 10.866745948791504, "learning_rate": 2.2051282051282053e-07, "loss": 0.1885, "step": 51450 }, { "epoch": 13.726666666666667, "grad_norm": 8.808277130126953, "learning_rate": 2.153846153846154e-07, "loss": 0.2003, "step": 51475 }, { "epoch": 13.733333333333333, "grad_norm": 9.014233589172363, "learning_rate": 2.1025641025641027e-07, "loss": 0.2138, "step": 51500 }, { "epoch": 13.74, "grad_norm": 8.787052154541016, "learning_rate": 2.0512820512820514e-07, "loss": 0.201, "step": 51525 }, { "epoch": 13.746666666666666, "grad_norm": 32.15926742553711, "learning_rate": 2.0000000000000002e-07, "loss": 0.2003, "step": 51550 }, { "epoch": 13.753333333333334, "grad_norm": 9.439589500427246, "learning_rate": 1.948717948717949e-07, "loss": 0.194, "step": 51575 }, { "epoch": 13.76, "grad_norm": 7.083536624908447, "learning_rate": 1.8974358974358976e-07, "loss": 0.1971, "step": 51600 }, { "epoch": 13.766666666666667, "grad_norm": 11.732666015625, "learning_rate": 1.8461538461538464e-07, "loss": 0.2188, "step": 51625 }, { "epoch": 13.773333333333333, "grad_norm": 8.064957618713379, "learning_rate": 1.7948717948717948e-07, "loss": 0.2077, "step": 51650 }, { "epoch": 13.78, "grad_norm": 10.068327903747559, "learning_rate": 1.7435897435897435e-07, "loss": 0.2107, "step": 51675 }, { "epoch": 13.786666666666667, "grad_norm": 6.097171306610107, "learning_rate": 1.6923076923076923e-07, "loss": 0.2025, "step": 51700 }, { "epoch": 13.793333333333333, "grad_norm": 7.980480670928955, "learning_rate": 1.6410256410256413e-07, "loss": 0.2135, "step": 51725 }, { "epoch": 13.8, "grad_norm": 9.017086029052734, "learning_rate": 1.58974358974359e-07, "loss": 0.1772, "step": 51750 }, { "epoch": 13.806666666666667, "grad_norm": 6.5945024490356445, "learning_rate": 1.5384615384615387e-07, "loss": 0.2007, "step": 51775 }, { "epoch": 13.813333333333333, "grad_norm": 11.208321571350098, "learning_rate": 1.4871794871794872e-07, "loss": 0.1967, "step": 51800 }, { "epoch": 13.82, "grad_norm": 7.138058185577393, "learning_rate": 1.435897435897436e-07, "loss": 0.1984, "step": 51825 }, { "epoch": 13.826666666666666, "grad_norm": 6.640950679779053, "learning_rate": 1.384615384615385e-07, "loss": 0.206, "step": 51850 }, { "epoch": 13.833333333333334, "grad_norm": 7.9033331871032715, "learning_rate": 1.3333333333333336e-07, "loss": 0.2162, "step": 51875 }, { "epoch": 13.84, "grad_norm": 7.357480525970459, "learning_rate": 1.282051282051282e-07, "loss": 0.2134, "step": 51900 }, { "epoch": 13.846666666666668, "grad_norm": 7.0047831535339355, "learning_rate": 1.2307692307692308e-07, "loss": 0.2069, "step": 51925 }, { "epoch": 13.853333333333333, "grad_norm": 8.183423042297363, "learning_rate": 1.1794871794871797e-07, "loss": 0.1947, "step": 51950 }, { "epoch": 13.86, "grad_norm": 8.244986534118652, "learning_rate": 1.1282051282051284e-07, "loss": 0.2121, "step": 51975 }, { "epoch": 13.866666666666667, "grad_norm": 7.79372501373291, "learning_rate": 1.076923076923077e-07, "loss": 0.2019, "step": 52000 }, { "epoch": 13.873333333333333, "grad_norm": 8.360128402709961, "learning_rate": 1.0256410256410257e-07, "loss": 0.2001, "step": 52025 }, { "epoch": 13.88, "grad_norm": 8.946427345275879, "learning_rate": 9.743589743589745e-08, "loss": 0.1998, "step": 52050 }, { "epoch": 13.886666666666667, "grad_norm": 6.421191692352295, "learning_rate": 9.230769230769232e-08, "loss": 0.1973, "step": 52075 }, { "epoch": 13.893333333333333, "grad_norm": 7.828255653381348, "learning_rate": 8.717948717948718e-08, "loss": 0.192, "step": 52100 }, { "epoch": 13.9, "grad_norm": 8.722497940063477, "learning_rate": 8.205128205128206e-08, "loss": 0.1891, "step": 52125 }, { "epoch": 13.906666666666666, "grad_norm": 12.489630699157715, "learning_rate": 7.692307692307694e-08, "loss": 0.1944, "step": 52150 }, { "epoch": 13.913333333333334, "grad_norm": 8.161320686340332, "learning_rate": 7.17948717948718e-08, "loss": 0.1715, "step": 52175 }, { "epoch": 13.92, "grad_norm": 9.027724266052246, "learning_rate": 6.666666666666668e-08, "loss": 0.1891, "step": 52200 }, { "epoch": 13.926666666666666, "grad_norm": 9.54638957977295, "learning_rate": 6.153846153846154e-08, "loss": 0.1864, "step": 52225 }, { "epoch": 13.933333333333334, "grad_norm": 9.920968055725098, "learning_rate": 5.641025641025642e-08, "loss": 0.1927, "step": 52250 }, { "epoch": 13.94, "grad_norm": 8.361181259155273, "learning_rate": 5.1282051282051286e-08, "loss": 0.1849, "step": 52275 }, { "epoch": 13.946666666666667, "grad_norm": 7.874997615814209, "learning_rate": 4.615384615384616e-08, "loss": 0.1939, "step": 52300 }, { "epoch": 13.953333333333333, "grad_norm": 7.741474628448486, "learning_rate": 4.102564102564103e-08, "loss": 0.1863, "step": 52325 }, { "epoch": 13.96, "grad_norm": 8.629964828491211, "learning_rate": 3.58974358974359e-08, "loss": 0.1964, "step": 52350 }, { "epoch": 13.966666666666667, "grad_norm": 8.791191101074219, "learning_rate": 3.076923076923077e-08, "loss": 0.1939, "step": 52375 }, { "epoch": 13.973333333333333, "grad_norm": 7.889545917510986, "learning_rate": 2.5641025641025643e-08, "loss": 0.1712, "step": 52400 }, { "epoch": 13.98, "grad_norm": 5.423628807067871, "learning_rate": 2.0512820512820516e-08, "loss": 0.1876, "step": 52425 }, { "epoch": 13.986666666666666, "grad_norm": 8.350991249084473, "learning_rate": 1.5384615384615385e-08, "loss": 0.2023, "step": 52450 }, { "epoch": 13.993333333333334, "grad_norm": 8.907025337219238, "learning_rate": 1.0256410256410258e-08, "loss": 0.1973, "step": 52475 }, { "epoch": 14.0, "grad_norm": 9.676620483398438, "learning_rate": 5.128205128205129e-09, "loss": 0.2079, "step": 52500 }, { "epoch": 14.0, "eval_cer": 24.925926616104206, "eval_loss": 0.4170113205909729, "eval_runtime": 1504.9332, "eval_samples_per_second": 3.322, "eval_steps_per_second": 0.415, "step": 52500 }, { "epoch": 14.0, "step": 52500, "total_flos": 3.404806078464e+20, "train_loss": 0.032519500650678365, "train_runtime": 36587.946, "train_samples_per_second": 22.958, "train_steps_per_second": 1.435 } ], "logging_steps": 25, "max_steps": 52500, "num_input_tokens_seen": 0, "num_train_epochs": 14, "save_steps": 3750, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 3.404806078464e+20, "train_batch_size": 16, "trial_name": null, "trial_params": null }