ogbanugot commited on
Commit
0825730
1 Parent(s): 4a5c00d

End of training

Browse files
Files changed (5) hide show
  1. README.md +6 -1
  2. all_results.json +9 -9
  3. eval_results.json +4 -4
  4. train_results.json +6 -6
  5. trainer_state.json +48 -2172
README.md CHANGED
@@ -3,6 +3,8 @@ base_model: facebook/musicgen-small
3
  library_name: peft
4
  license: cc-by-nc-4.0
5
  tags:
 
 
6
  - generated_from_trainer
7
  model-index:
8
  - name: musicgen-small-lora-afrobeats
@@ -15,7 +17,10 @@ should probably proofread and complete it, then remove this comment. -->
15
  [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="200" height="32"/>](None)
16
  # musicgen-small-lora-afrobeats
17
 
18
- This model is a fine-tuned version of [facebook/musicgen-small](https://huggingface.co/facebook/musicgen-small) on an unknown dataset.
 
 
 
19
 
20
  ## Model description
21
 
 
3
  library_name: peft
4
  license: cc-by-nc-4.0
5
  tags:
6
+ - text-to-audio
7
+ - ogbanugot/musicgen
8
  - generated_from_trainer
9
  model-index:
10
  - name: musicgen-small-lora-afrobeats
 
17
  [<img src="https://raw.githubusercontent.com/wandb/assets/main/wandb-github-badge-28.svg" alt="Visualize in Weights & Biases" width="200" height="32"/>](None)
18
  # musicgen-small-lora-afrobeats
19
 
20
+ This model is a fine-tuned version of [facebook/musicgen-small](https://huggingface.co/facebook/musicgen-small) on the OGBANUGOT/MUSICGEN - DEFAULT dataset.
21
+ It achieves the following results on the evaluation set:
22
+ - Loss: 5.3475
23
+ - Clap: 0.0496
24
 
25
  ## Model description
26
 
all_results.json CHANGED
@@ -1,15 +1,15 @@
1
  {
2
- "epoch": 96.0,
3
- "eval_clap": 0.05140729248523712,
4
- "eval_loss": 6.859947204589844,
5
- "eval_runtime": 133.9255,
6
  "eval_samples": 8,
7
  "eval_samples_per_second": 0.06,
8
  "eval_steps_per_second": 0.06,
9
- "total_flos": 95943536978688.0,
10
- "train_loss": 7.054300208091735,
11
- "train_runtime": 2800.3256,
12
  "train_samples": 49,
13
- "train_samples_per_second": 1.75,
14
- "train_steps_per_second": 0.107
15
  }
 
1
  {
2
+ "epoch": 3.84,
3
+ "eval_clap": 0.04958033934235573,
4
+ "eval_loss": 5.347536087036133,
5
+ "eval_runtime": 133.8795,
6
  "eval_samples": 8,
7
  "eval_samples_per_second": 0.06,
8
  "eval_steps_per_second": 0.06,
9
+ "total_flos": 22357590798924.0,
10
+ "train_loss": 8.493526140848795,
11
+ "train_runtime": 47.9357,
12
  "train_samples": 49,
13
+ "train_samples_per_second": 4.089,
14
+ "train_steps_per_second": 0.25
15
  }
eval_results.json CHANGED
@@ -1,8 +1,8 @@
1
  {
2
- "epoch": 96.0,
3
- "eval_clap": 0.05140729248523712,
4
- "eval_loss": 6.859947204589844,
5
- "eval_runtime": 133.9255,
6
  "eval_samples": 8,
7
  "eval_samples_per_second": 0.06,
8
  "eval_steps_per_second": 0.06
 
1
  {
2
+ "epoch": 3.84,
3
+ "eval_clap": 0.04958033934235573,
4
+ "eval_loss": 5.347536087036133,
5
+ "eval_runtime": 133.8795,
6
  "eval_samples": 8,
7
  "eval_samples_per_second": 0.06,
8
  "eval_steps_per_second": 0.06
train_results.json CHANGED
@@ -1,9 +1,9 @@
1
  {
2
- "epoch": 96.0,
3
- "total_flos": 95943536978688.0,
4
- "train_loss": 7.054300208091735,
5
- "train_runtime": 2800.3256,
6
  "train_samples": 49,
7
- "train_samples_per_second": 1.75,
8
- "train_steps_per_second": 0.107
9
  }
 
1
  {
2
+ "epoch": 3.84,
3
+ "total_flos": 22357590798924.0,
4
+ "train_loss": 8.493526140848795,
5
+ "train_runtime": 47.9357,
6
  "train_samples": 49,
7
+ "train_samples_per_second": 4.089,
8
+ "train_steps_per_second": 0.25
9
  }
trainer_state.json CHANGED
@@ -1,2235 +1,111 @@
1
  {
2
  "best_metric": null,
3
  "best_model_checkpoint": null,
4
- "epoch": 96.0,
5
  "eval_steps": 25,
6
- "global_step": 300,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
10
  "log_history": [
11
  {
12
  "epoch": 0.32,
13
- "grad_norm": 1.6683632135391235,
14
- "learning_rate": 0.00019933333333333334,
15
- "loss": 9.4482,
16
  "step": 1
17
  },
18
  {
19
  "epoch": 0.64,
20
- "grad_norm": 2.1682562828063965,
21
- "learning_rate": 0.00019866666666666668,
22
- "loss": 9.3638,
23
  "step": 2
24
  },
25
  {
26
  "epoch": 0.96,
27
- "grad_norm": 2.862727642059326,
28
- "learning_rate": 0.00019800000000000002,
29
- "loss": 8.8996,
30
  "step": 3
31
  },
32
  {
33
  "epoch": 1.28,
34
- "grad_norm": 2.116269111633301,
35
- "learning_rate": 0.00019733333333333335,
36
- "loss": 8.4274,
37
  "step": 4
38
  },
39
  {
40
  "epoch": 1.6,
41
- "grad_norm": 1.6066012382507324,
42
- "learning_rate": 0.00019666666666666666,
43
- "loss": 8.1555,
44
  "step": 5
45
  },
46
  {
47
  "epoch": 1.92,
48
- "grad_norm": 1.0474973917007446,
49
- "learning_rate": 0.000196,
50
- "loss": 7.9886,
51
  "step": 6
52
  },
53
  {
54
  "epoch": 2.24,
55
- "grad_norm": 0.8487308621406555,
56
- "learning_rate": 0.00019533333333333336,
57
- "loss": 7.8356,
58
  "step": 7
59
  },
60
  {
61
  "epoch": 2.56,
62
- "grad_norm": 0.6988046765327454,
63
- "learning_rate": 0.0001946666666666667,
64
- "loss": 7.7446,
65
  "step": 8
66
  },
67
  {
68
  "epoch": 2.88,
69
- "grad_norm": 0.679674506187439,
70
- "learning_rate": 0.000194,
71
- "loss": 7.6687,
72
  "step": 9
73
  },
74
  {
75
  "epoch": 3.2,
76
- "grad_norm": 0.7611989974975586,
77
- "learning_rate": 0.00019333333333333333,
78
- "loss": 7.6535,
79
  "step": 10
80
  },
81
  {
82
  "epoch": 3.52,
83
- "grad_norm": 0.7022913694381714,
84
- "learning_rate": 0.0001926666666666667,
85
- "loss": 7.6484,
86
  "step": 11
87
  },
88
  {
89
  "epoch": 3.84,
90
- "grad_norm": 0.5670737624168396,
91
- "learning_rate": 0.000192,
92
- "loss": 7.5513,
93
  "step": 12
94
  },
95
  {
96
- "epoch": 4.16,
97
- "grad_norm": 0.5052419900894165,
98
- "learning_rate": 0.00019133333333333334,
99
- "loss": 7.5395,
100
- "step": 13
101
- },
102
- {
103
- "epoch": 4.48,
104
- "grad_norm": 0.4930964410305023,
105
- "learning_rate": 0.00019066666666666668,
106
- "loss": 7.5,
107
- "step": 14
108
- },
109
- {
110
- "epoch": 4.8,
111
- "grad_norm": 0.3738355338573456,
112
- "learning_rate": 0.00019,
113
- "loss": 7.516,
114
- "step": 15
115
- },
116
- {
117
- "epoch": 5.12,
118
- "grad_norm": 0.4098713994026184,
119
- "learning_rate": 0.00018933333333333335,
120
- "loss": 7.493,
121
- "step": 16
122
- },
123
- {
124
- "epoch": 5.44,
125
- "grad_norm": 0.6889079809188843,
126
- "learning_rate": 0.00018866666666666668,
127
- "loss": 7.4045,
128
- "step": 17
129
- },
130
- {
131
- "epoch": 5.76,
132
- "grad_norm": 0.323447585105896,
133
- "learning_rate": 0.000188,
134
- "loss": 7.4881,
135
- "step": 18
136
- },
137
- {
138
- "epoch": 6.08,
139
- "grad_norm": 0.35135868191719055,
140
- "learning_rate": 0.00018733333333333335,
141
- "loss": 7.4652,
142
- "step": 19
143
- },
144
- {
145
- "epoch": 6.4,
146
- "grad_norm": 0.3387809693813324,
147
- "learning_rate": 0.0001866666666666667,
148
- "loss": 7.3972,
149
- "step": 20
150
- },
151
- {
152
- "epoch": 6.72,
153
- "grad_norm": 0.29421865940093994,
154
- "learning_rate": 0.00018600000000000002,
155
- "loss": 7.4372,
156
- "step": 21
157
- },
158
- {
159
- "epoch": 7.04,
160
- "grad_norm": 0.2511671781539917,
161
- "learning_rate": 0.00018533333333333333,
162
- "loss": 7.363,
163
- "step": 22
164
- },
165
- {
166
- "epoch": 7.36,
167
- "grad_norm": 0.25551798939704895,
168
- "learning_rate": 0.00018466666666666666,
169
- "loss": 7.3739,
170
- "step": 23
171
- },
172
- {
173
- "epoch": 7.68,
174
- "grad_norm": 0.27732208371162415,
175
- "learning_rate": 0.00018400000000000003,
176
- "loss": 7.3852,
177
- "step": 24
178
- },
179
- {
180
- "epoch": 8.0,
181
- "grad_norm": 0.3708743453025818,
182
- "learning_rate": 0.00018333333333333334,
183
- "loss": 7.317,
184
- "step": 25
185
- },
186
- {
187
- "epoch": 8.0,
188
- "eval_clap": 0.06789032369852066,
189
- "eval_loss": 7.1357221603393555,
190
- "eval_runtime": 136.0982,
191
- "eval_samples_per_second": 0.059,
192
- "eval_steps_per_second": 0.059,
193
- "step": 25
194
- },
195
- {
196
- "epoch": 8.32,
197
- "grad_norm": 0.19446749985218048,
198
- "learning_rate": 0.00018266666666666667,
199
- "loss": 7.3618,
200
- "step": 26
201
- },
202
- {
203
- "epoch": 8.64,
204
- "grad_norm": 0.2430403083562851,
205
- "learning_rate": 0.000182,
206
- "loss": 7.3367,
207
- "step": 27
208
- },
209
- {
210
- "epoch": 8.96,
211
- "grad_norm": 0.22890672087669373,
212
- "learning_rate": 0.00018133333333333334,
213
- "loss": 7.3717,
214
- "step": 28
215
- },
216
- {
217
- "epoch": 9.28,
218
- "grad_norm": 0.3734652101993561,
219
- "learning_rate": 0.00018066666666666668,
220
- "loss": 7.3754,
221
- "step": 29
222
- },
223
- {
224
- "epoch": 9.6,
225
- "grad_norm": 0.2538997232913971,
226
- "learning_rate": 0.00018,
227
- "loss": 7.3731,
228
- "step": 30
229
- },
230
- {
231
- "epoch": 9.92,
232
- "grad_norm": 0.2537391781806946,
233
- "learning_rate": 0.00017933333333333332,
234
- "loss": 7.3164,
235
- "step": 31
236
- },
237
- {
238
- "epoch": 10.24,
239
- "grad_norm": 0.360113263130188,
240
- "learning_rate": 0.00017866666666666668,
241
- "loss": 7.247,
242
- "step": 32
243
- },
244
- {
245
- "epoch": 10.56,
246
- "grad_norm": 0.20007725059986115,
247
- "learning_rate": 0.00017800000000000002,
248
- "loss": 7.3767,
249
- "step": 33
250
- },
251
- {
252
- "epoch": 10.88,
253
- "grad_norm": 0.21972504258155823,
254
- "learning_rate": 0.00017733333333333335,
255
- "loss": 7.2909,
256
- "step": 34
257
- },
258
- {
259
- "epoch": 11.2,
260
- "grad_norm": 0.20536483824253082,
261
- "learning_rate": 0.00017666666666666666,
262
- "loss": 7.3349,
263
- "step": 35
264
- },
265
- {
266
- "epoch": 11.52,
267
- "grad_norm": 0.22909294068813324,
268
- "learning_rate": 0.00017600000000000002,
269
- "loss": 7.3191,
270
- "step": 36
271
- },
272
- {
273
- "epoch": 11.84,
274
- "grad_norm": 0.34534749388694763,
275
- "learning_rate": 0.00017533333333333336,
276
- "loss": 7.2315,
277
- "step": 37
278
- },
279
- {
280
- "epoch": 12.16,
281
- "grad_norm": 0.19759266078472137,
282
- "learning_rate": 0.00017466666666666667,
283
- "loss": 7.2948,
284
- "step": 38
285
- },
286
- {
287
- "epoch": 12.48,
288
- "grad_norm": 0.25605055689811707,
289
- "learning_rate": 0.000174,
290
- "loss": 7.3243,
291
- "step": 39
292
- },
293
- {
294
- "epoch": 12.8,
295
- "grad_norm": 0.29761838912963867,
296
- "learning_rate": 0.00017333333333333334,
297
- "loss": 7.1981,
298
- "step": 40
299
- },
300
- {
301
- "epoch": 13.12,
302
- "grad_norm": 0.30346959829330444,
303
- "learning_rate": 0.00017266666666666667,
304
- "loss": 7.3422,
305
- "step": 41
306
- },
307
- {
308
- "epoch": 13.44,
309
- "grad_norm": 0.19417926669120789,
310
- "learning_rate": 0.000172,
311
- "loss": 7.2737,
312
- "step": 42
313
- },
314
- {
315
- "epoch": 13.76,
316
- "grad_norm": 0.23542876541614532,
317
- "learning_rate": 0.00017133333333333334,
318
- "loss": 7.2944,
319
- "step": 43
320
- },
321
- {
322
- "epoch": 14.08,
323
- "grad_norm": 0.25514674186706543,
324
- "learning_rate": 0.00017066666666666668,
325
- "loss": 7.2715,
326
- "step": 44
327
- },
328
- {
329
- "epoch": 14.4,
330
- "grad_norm": 0.2833520174026489,
331
- "learning_rate": 0.00017,
332
- "loss": 7.2014,
333
- "step": 45
334
- },
335
- {
336
- "epoch": 14.72,
337
- "grad_norm": 0.20149561762809753,
338
- "learning_rate": 0.00016933333333333335,
339
- "loss": 7.3088,
340
- "step": 46
341
- },
342
- {
343
- "epoch": 15.04,
344
- "grad_norm": 0.21219302713871002,
345
- "learning_rate": 0.00016866666666666668,
346
- "loss": 7.2949,
347
- "step": 47
348
- },
349
- {
350
- "epoch": 15.36,
351
- "grad_norm": 0.23375821113586426,
352
- "learning_rate": 0.000168,
353
- "loss": 7.2888,
354
- "step": 48
355
- },
356
- {
357
- "epoch": 15.68,
358
- "grad_norm": 0.21792426705360413,
359
- "learning_rate": 0.00016733333333333335,
360
- "loss": 7.2483,
361
- "step": 49
362
- },
363
- {
364
- "epoch": 16.0,
365
- "grad_norm": 0.19120004773139954,
366
- "learning_rate": 0.0001666666666666667,
367
- "loss": 7.2825,
368
- "step": 50
369
- },
370
- {
371
- "epoch": 16.0,
372
- "eval_clap": 0.07548777759075165,
373
- "eval_loss": 7.080169200897217,
374
- "eval_runtime": 134.9309,
375
- "eval_samples_per_second": 0.059,
376
- "eval_steps_per_second": 0.059,
377
- "step": 50
378
- },
379
- {
380
- "epoch": 16.32,
381
- "grad_norm": 0.21363769471645355,
382
- "learning_rate": 0.000166,
383
- "loss": 7.2329,
384
- "step": 51
385
- },
386
- {
387
- "epoch": 16.64,
388
- "grad_norm": 0.16386957466602325,
389
- "learning_rate": 0.00016533333333333333,
390
- "loss": 7.2955,
391
- "step": 52
392
- },
393
- {
394
- "epoch": 16.96,
395
- "grad_norm": 0.1577311009168625,
396
- "learning_rate": 0.00016466666666666667,
397
- "loss": 7.248,
398
- "step": 53
399
- },
400
- {
401
- "epoch": 17.28,
402
- "grad_norm": 0.21565888822078705,
403
- "learning_rate": 0.000164,
404
- "loss": 7.2464,
405
- "step": 54
406
- },
407
- {
408
- "epoch": 17.6,
409
- "grad_norm": 0.27145129442214966,
410
- "learning_rate": 0.00016333333333333334,
411
- "loss": 7.2461,
412
- "step": 55
413
- },
414
- {
415
- "epoch": 17.92,
416
- "grad_norm": 0.2673998475074768,
417
- "learning_rate": 0.00016266666666666667,
418
- "loss": 7.2779,
419
- "step": 56
420
- },
421
- {
422
- "epoch": 18.24,
423
- "grad_norm": 0.29183390736579895,
424
- "learning_rate": 0.000162,
425
- "loss": 7.2001,
426
- "step": 57
427
- },
428
- {
429
- "epoch": 18.56,
430
- "grad_norm": 0.20004913210868835,
431
- "learning_rate": 0.00016133333333333334,
432
- "loss": 7.2103,
433
- "step": 58
434
- },
435
- {
436
- "epoch": 18.88,
437
- "grad_norm": 0.28497615456581116,
438
- "learning_rate": 0.00016066666666666668,
439
- "loss": 7.3056,
440
- "step": 59
441
- },
442
- {
443
- "epoch": 19.2,
444
- "grad_norm": 0.2540966868400574,
445
- "learning_rate": 0.00016,
446
- "loss": 7.2591,
447
- "step": 60
448
- },
449
- {
450
- "epoch": 19.52,
451
- "grad_norm": 0.370432049036026,
452
- "learning_rate": 0.00015933333333333332,
453
- "loss": 7.3505,
454
- "step": 61
455
- },
456
- {
457
- "epoch": 19.84,
458
- "grad_norm": 0.3191507160663605,
459
- "learning_rate": 0.00015866666666666668,
460
- "loss": 7.1707,
461
- "step": 62
462
- },
463
- {
464
- "epoch": 20.16,
465
- "grad_norm": 0.5413910746574402,
466
- "learning_rate": 0.00015800000000000002,
467
- "loss": 7.1405,
468
- "step": 63
469
- },
470
- {
471
- "epoch": 20.48,
472
- "grad_norm": 0.2303798645734787,
473
- "learning_rate": 0.00015733333333333333,
474
- "loss": 7.2141,
475
- "step": 64
476
- },
477
- {
478
- "epoch": 20.8,
479
- "grad_norm": 0.20501984655857086,
480
- "learning_rate": 0.00015666666666666666,
481
- "loss": 7.2201,
482
- "step": 65
483
- },
484
- {
485
- "epoch": 21.12,
486
- "grad_norm": 0.2755655348300934,
487
- "learning_rate": 0.00015600000000000002,
488
- "loss": 7.276,
489
- "step": 66
490
- },
491
- {
492
- "epoch": 21.44,
493
- "grad_norm": 0.3554082214832306,
494
- "learning_rate": 0.00015533333333333333,
495
- "loss": 7.2921,
496
- "step": 67
497
- },
498
- {
499
- "epoch": 21.76,
500
- "grad_norm": 0.251579225063324,
501
- "learning_rate": 0.00015466666666666667,
502
- "loss": 7.2545,
503
- "step": 68
504
- },
505
- {
506
- "epoch": 22.08,
507
- "grad_norm": 0.3270656168460846,
508
- "learning_rate": 0.000154,
509
- "loss": 7.159,
510
- "step": 69
511
- },
512
- {
513
- "epoch": 22.4,
514
- "grad_norm": 0.2507319152355194,
515
- "learning_rate": 0.00015333333333333334,
516
- "loss": 7.2586,
517
- "step": 70
518
- },
519
- {
520
- "epoch": 22.72,
521
- "grad_norm": 0.2141207903623581,
522
- "learning_rate": 0.00015266666666666667,
523
- "loss": 7.1975,
524
- "step": 71
525
- },
526
- {
527
- "epoch": 23.04,
528
- "grad_norm": 0.5677863955497742,
529
- "learning_rate": 0.000152,
530
- "loss": 7.1095,
531
- "step": 72
532
- },
533
- {
534
- "epoch": 23.36,
535
- "grad_norm": 0.2293558269739151,
536
- "learning_rate": 0.00015133333333333334,
537
- "loss": 7.2346,
538
- "step": 73
539
- },
540
- {
541
- "epoch": 23.68,
542
- "grad_norm": 0.19917689263820648,
543
- "learning_rate": 0.00015066666666666668,
544
- "loss": 7.205,
545
- "step": 74
546
- },
547
- {
548
- "epoch": 24.0,
549
- "grad_norm": 0.519916832447052,
550
- "learning_rate": 0.00015000000000000001,
551
- "loss": 7.1042,
552
- "step": 75
553
- },
554
- {
555
- "epoch": 24.0,
556
- "eval_clap": 0.05497421696782112,
557
- "eval_loss": 6.906433582305908,
558
- "eval_runtime": 135.1936,
559
- "eval_samples_per_second": 0.059,
560
- "eval_steps_per_second": 0.059,
561
- "step": 75
562
- },
563
- {
564
- "epoch": 24.32,
565
- "grad_norm": 0.2467987984418869,
566
- "learning_rate": 0.00014933333333333335,
567
- "loss": 7.1484,
568
- "step": 76
569
- },
570
- {
571
- "epoch": 24.64,
572
- "grad_norm": 0.40156108140945435,
573
- "learning_rate": 0.00014866666666666666,
574
- "loss": 7.3006,
575
- "step": 77
576
- },
577
- {
578
- "epoch": 24.96,
579
- "grad_norm": 0.3527941405773163,
580
- "learning_rate": 0.000148,
581
- "loss": 7.1451,
582
- "step": 78
583
- },
584
- {
585
- "epoch": 25.28,
586
- "grad_norm": 0.3112771809101105,
587
- "learning_rate": 0.00014733333333333335,
588
- "loss": 7.1427,
589
- "step": 79
590
- },
591
- {
592
- "epoch": 25.6,
593
- "grad_norm": 0.2851181626319885,
594
- "learning_rate": 0.00014666666666666666,
595
- "loss": 7.1679,
596
- "step": 80
597
- },
598
- {
599
- "epoch": 25.92,
600
- "grad_norm": 0.28447166085243225,
601
- "learning_rate": 0.000146,
602
- "loss": 7.1942,
603
- "step": 81
604
- },
605
- {
606
- "epoch": 26.24,
607
- "grad_norm": 0.27783018350601196,
608
- "learning_rate": 0.00014533333333333333,
609
- "loss": 7.1726,
610
- "step": 82
611
- },
612
- {
613
- "epoch": 26.56,
614
- "grad_norm": 0.5695661902427673,
615
- "learning_rate": 0.0001446666666666667,
616
- "loss": 7.0438,
617
- "step": 83
618
- },
619
- {
620
- "epoch": 26.88,
621
- "grad_norm": 0.3723052442073822,
622
- "learning_rate": 0.000144,
623
- "loss": 7.145,
624
- "step": 84
625
- },
626
- {
627
- "epoch": 27.2,
628
- "grad_norm": 0.4382816553115845,
629
- "learning_rate": 0.00014333333333333334,
630
- "loss": 6.9554,
631
- "step": 85
632
- },
633
- {
634
- "epoch": 27.52,
635
- "grad_norm": 0.3433331847190857,
636
- "learning_rate": 0.00014266666666666667,
637
- "loss": 7.1927,
638
- "step": 86
639
- },
640
- {
641
- "epoch": 27.84,
642
- "grad_norm": 0.4673261046409607,
643
- "learning_rate": 0.000142,
644
- "loss": 7.1284,
645
- "step": 87
646
- },
647
- {
648
- "epoch": 28.16,
649
- "grad_norm": 0.4776053726673126,
650
- "learning_rate": 0.00014133333333333334,
651
- "loss": 7.0711,
652
- "step": 88
653
- },
654
- {
655
- "epoch": 28.48,
656
- "grad_norm": 0.3748451769351959,
657
- "learning_rate": 0.00014066666666666668,
658
- "loss": 7.1578,
659
- "step": 89
660
- },
661
- {
662
- "epoch": 28.8,
663
- "grad_norm": 0.3615866005420685,
664
- "learning_rate": 0.00014,
665
- "loss": 7.0148,
666
- "step": 90
667
- },
668
- {
669
- "epoch": 29.12,
670
- "grad_norm": 0.3310900032520294,
671
- "learning_rate": 0.00013933333333333335,
672
- "loss": 7.0298,
673
- "step": 91
674
- },
675
- {
676
- "epoch": 29.44,
677
- "grad_norm": 0.22606706619262695,
678
- "learning_rate": 0.00013866666666666669,
679
- "loss": 7.2279,
680
- "step": 92
681
- },
682
- {
683
- "epoch": 29.76,
684
- "grad_norm": 0.22855545580387115,
685
- "learning_rate": 0.000138,
686
- "loss": 7.0929,
687
- "step": 93
688
- },
689
- {
690
- "epoch": 30.08,
691
- "grad_norm": 0.2980823218822479,
692
- "learning_rate": 0.00013733333333333333,
693
- "loss": 6.9887,
694
- "step": 94
695
- },
696
- {
697
- "epoch": 30.4,
698
- "grad_norm": 0.2923685312271118,
699
- "learning_rate": 0.00013666666666666666,
700
- "loss": 7.1163,
701
- "step": 95
702
- },
703
- {
704
- "epoch": 30.72,
705
- "grad_norm": 0.3465331196784973,
706
- "learning_rate": 0.00013600000000000003,
707
- "loss": 7.169,
708
- "step": 96
709
- },
710
- {
711
- "epoch": 31.04,
712
- "grad_norm": 0.55702805519104,
713
- "learning_rate": 0.00013533333333333333,
714
- "loss": 6.5558,
715
- "step": 97
716
- },
717
- {
718
- "epoch": 31.36,
719
- "grad_norm": 0.42496222257614136,
720
- "learning_rate": 0.00013466666666666667,
721
- "loss": 6.9326,
722
- "step": 98
723
- },
724
- {
725
- "epoch": 31.68,
726
- "grad_norm": 0.22283001244068146,
727
- "learning_rate": 0.000134,
728
- "loss": 7.1738,
729
- "step": 99
730
- },
731
- {
732
- "epoch": 32.0,
733
- "grad_norm": 0.23974306881427765,
734
- "learning_rate": 0.00013333333333333334,
735
- "loss": 7.0441,
736
- "step": 100
737
- },
738
- {
739
- "epoch": 32.0,
740
- "eval_clap": 0.10635647177696228,
741
- "eval_loss": 6.8616838455200195,
742
- "eval_runtime": 136.3895,
743
- "eval_samples_per_second": 0.059,
744
- "eval_steps_per_second": 0.059,
745
- "step": 100
746
- },
747
- {
748
- "epoch": 32.32,
749
- "grad_norm": 0.2159024178981781,
750
- "learning_rate": 0.00013266666666666667,
751
- "loss": 7.0378,
752
- "step": 101
753
- },
754
- {
755
- "epoch": 32.64,
756
- "grad_norm": 0.34279248118400574,
757
- "learning_rate": 0.000132,
758
- "loss": 6.9701,
759
- "step": 102
760
- },
761
- {
762
- "epoch": 32.96,
763
- "grad_norm": 0.2793212831020355,
764
- "learning_rate": 0.00013133333333333332,
765
- "loss": 7.0861,
766
- "step": 103
767
- },
768
- {
769
- "epoch": 33.28,
770
- "grad_norm": 0.20994018018245697,
771
- "learning_rate": 0.00013066666666666668,
772
- "loss": 7.0923,
773
- "step": 104
774
- },
775
- {
776
- "epoch": 33.6,
777
- "grad_norm": 0.2946266531944275,
778
- "learning_rate": 0.00013000000000000002,
779
- "loss": 6.9404,
780
- "step": 105
781
- },
782
- {
783
- "epoch": 33.92,
784
- "grad_norm": 0.22306962311267853,
785
- "learning_rate": 0.00012933333333333332,
786
- "loss": 7.1071,
787
- "step": 106
788
- },
789
- {
790
- "epoch": 34.24,
791
- "grad_norm": 0.4290503263473511,
792
- "learning_rate": 0.00012866666666666666,
793
- "loss": 6.8975,
794
- "step": 107
795
- },
796
- {
797
- "epoch": 34.56,
798
- "grad_norm": 0.37515199184417725,
799
- "learning_rate": 0.00012800000000000002,
800
- "loss": 6.7624,
801
- "step": 108
802
- },
803
- {
804
- "epoch": 34.88,
805
- "grad_norm": 0.29289448261260986,
806
- "learning_rate": 0.00012733333333333336,
807
- "loss": 7.0897,
808
- "step": 109
809
- },
810
- {
811
- "epoch": 35.2,
812
- "grad_norm": 0.2470962107181549,
813
- "learning_rate": 0.00012666666666666666,
814
- "loss": 7.2233,
815
- "step": 110
816
- },
817
- {
818
- "epoch": 35.52,
819
- "grad_norm": 0.31346985697746277,
820
- "learning_rate": 0.000126,
821
- "loss": 6.9721,
822
- "step": 111
823
- },
824
- {
825
- "epoch": 35.84,
826
- "grad_norm": 0.2653011083602905,
827
- "learning_rate": 0.00012533333333333334,
828
- "loss": 6.9523,
829
- "step": 112
830
- },
831
- {
832
- "epoch": 36.16,
833
- "grad_norm": 0.3087577521800995,
834
- "learning_rate": 0.00012466666666666667,
835
- "loss": 6.9256,
836
- "step": 113
837
- },
838
- {
839
- "epoch": 36.48,
840
- "grad_norm": 0.22156448662281036,
841
- "learning_rate": 0.000124,
842
- "loss": 7.0439,
843
- "step": 114
844
- },
845
- {
846
- "epoch": 36.8,
847
- "grad_norm": 0.22839891910552979,
848
- "learning_rate": 0.00012333333333333334,
849
- "loss": 6.9379,
850
- "step": 115
851
- },
852
- {
853
- "epoch": 37.12,
854
- "grad_norm": 0.20402106642723083,
855
- "learning_rate": 0.00012266666666666668,
856
- "loss": 7.0673,
857
- "step": 116
858
- },
859
- {
860
- "epoch": 37.44,
861
- "grad_norm": 0.26979488134384155,
862
- "learning_rate": 0.000122,
863
- "loss": 6.964,
864
- "step": 117
865
- },
866
- {
867
- "epoch": 37.76,
868
- "grad_norm": 0.24161088466644287,
869
- "learning_rate": 0.00012133333333333335,
870
- "loss": 7.0688,
871
- "step": 118
872
- },
873
- {
874
- "epoch": 38.08,
875
- "grad_norm": 0.20534715056419373,
876
- "learning_rate": 0.00012066666666666668,
877
- "loss": 7.055,
878
- "step": 119
879
- },
880
- {
881
- "epoch": 38.4,
882
- "grad_norm": 0.1627223789691925,
883
- "learning_rate": 0.00012,
884
- "loss": 7.0459,
885
- "step": 120
886
- },
887
- {
888
- "epoch": 38.72,
889
- "grad_norm": 0.218263640999794,
890
- "learning_rate": 0.00011933333333333334,
891
- "loss": 6.8831,
892
- "step": 121
893
- },
894
- {
895
- "epoch": 39.04,
896
- "grad_norm": 0.2108282446861267,
897
- "learning_rate": 0.00011866666666666669,
898
- "loss": 7.0605,
899
- "step": 122
900
- },
901
- {
902
- "epoch": 39.36,
903
- "grad_norm": 0.24155791103839874,
904
- "learning_rate": 0.000118,
905
- "loss": 7.0808,
906
- "step": 123
907
- },
908
- {
909
- "epoch": 39.68,
910
- "grad_norm": 0.21054844558238983,
911
- "learning_rate": 0.00011733333333333334,
912
- "loss": 6.9903,
913
- "step": 124
914
- },
915
- {
916
- "epoch": 40.0,
917
- "grad_norm": 0.2591877579689026,
918
- "learning_rate": 0.00011666666666666668,
919
- "loss": 6.8774,
920
- "step": 125
921
- },
922
- {
923
- "epoch": 40.0,
924
- "eval_clap": 0.08953113853931427,
925
- "eval_loss": 6.826145648956299,
926
- "eval_runtime": 134.0443,
927
- "eval_samples_per_second": 0.06,
928
- "eval_steps_per_second": 0.06,
929
- "step": 125
930
- },
931
- {
932
- "epoch": 40.32,
933
- "grad_norm": 0.19766099750995636,
934
- "learning_rate": 0.000116,
935
- "loss": 7.0329,
936
- "step": 126
937
- },
938
- {
939
- "epoch": 40.64,
940
- "grad_norm": 0.20144084095954895,
941
- "learning_rate": 0.00011533333333333334,
942
- "loss": 7.0215,
943
- "step": 127
944
- },
945
- {
946
- "epoch": 40.96,
947
- "grad_norm": 0.2762785851955414,
948
- "learning_rate": 0.00011466666666666667,
949
- "loss": 6.7436,
950
- "step": 128
951
- },
952
- {
953
- "epoch": 41.28,
954
- "grad_norm": 0.41591876745224,
955
- "learning_rate": 0.00011399999999999999,
956
- "loss": 7.0114,
957
- "step": 129
958
- },
959
- {
960
- "epoch": 41.6,
961
- "grad_norm": 0.19946487247943878,
962
- "learning_rate": 0.00011333333333333334,
963
- "loss": 6.8638,
964
- "step": 130
965
- },
966
- {
967
- "epoch": 41.92,
968
- "grad_norm": 0.21176694333553314,
969
- "learning_rate": 0.00011266666666666668,
970
- "loss": 6.9558,
971
- "step": 131
972
- },
973
- {
974
- "epoch": 42.24,
975
- "grad_norm": 0.25887367129325867,
976
- "learning_rate": 0.00011200000000000001,
977
- "loss": 7.0577,
978
- "step": 132
979
- },
980
- {
981
- "epoch": 42.56,
982
- "grad_norm": 0.20762751996517181,
983
- "learning_rate": 0.00011133333333333333,
984
- "loss": 6.9193,
985
- "step": 133
986
- },
987
- {
988
- "epoch": 42.88,
989
- "grad_norm": 0.23250330984592438,
990
- "learning_rate": 0.00011066666666666667,
991
- "loss": 7.0265,
992
- "step": 134
993
- },
994
- {
995
- "epoch": 43.2,
996
- "grad_norm": 0.23344852030277252,
997
- "learning_rate": 0.00011000000000000002,
998
- "loss": 6.8651,
999
- "step": 135
1000
- },
1001
- {
1002
- "epoch": 43.52,
1003
- "grad_norm": 0.19347435235977173,
1004
- "learning_rate": 0.00010933333333333333,
1005
- "loss": 7.0227,
1006
- "step": 136
1007
- },
1008
- {
1009
- "epoch": 43.84,
1010
- "grad_norm": 0.20325195789337158,
1011
- "learning_rate": 0.00010866666666666667,
1012
- "loss": 7.0634,
1013
- "step": 137
1014
- },
1015
- {
1016
- "epoch": 44.16,
1017
- "grad_norm": 0.2032117247581482,
1018
- "learning_rate": 0.00010800000000000001,
1019
- "loss": 7.0748,
1020
- "step": 138
1021
- },
1022
- {
1023
- "epoch": 44.48,
1024
- "grad_norm": 0.20369456708431244,
1025
- "learning_rate": 0.00010733333333333333,
1026
- "loss": 6.9276,
1027
- "step": 139
1028
- },
1029
- {
1030
- "epoch": 44.8,
1031
- "grad_norm": 0.26763466000556946,
1032
- "learning_rate": 0.00010666666666666667,
1033
- "loss": 6.8855,
1034
- "step": 140
1035
- },
1036
- {
1037
- "epoch": 45.12,
1038
- "grad_norm": 0.23843225836753845,
1039
- "learning_rate": 0.00010600000000000002,
1040
- "loss": 6.9545,
1041
- "step": 141
1042
- },
1043
- {
1044
- "epoch": 45.44,
1045
- "grad_norm": 0.19162800908088684,
1046
- "learning_rate": 0.00010533333333333332,
1047
- "loss": 7.0271,
1048
- "step": 142
1049
- },
1050
- {
1051
- "epoch": 45.76,
1052
- "grad_norm": 0.23976649343967438,
1053
- "learning_rate": 0.00010466666666666667,
1054
- "loss": 7.0332,
1055
- "step": 143
1056
- },
1057
- {
1058
- "epoch": 46.08,
1059
- "grad_norm": 0.2280128002166748,
1060
- "learning_rate": 0.00010400000000000001,
1061
- "loss": 6.9251,
1062
- "step": 144
1063
- },
1064
- {
1065
- "epoch": 46.4,
1066
- "grad_norm": 0.20056234300136566,
1067
- "learning_rate": 0.00010333333333333334,
1068
- "loss": 6.9076,
1069
- "step": 145
1070
- },
1071
- {
1072
- "epoch": 46.72,
1073
- "grad_norm": 0.20636948943138123,
1074
- "learning_rate": 0.00010266666666666666,
1075
- "loss": 6.9673,
1076
- "step": 146
1077
- },
1078
- {
1079
- "epoch": 47.04,
1080
- "grad_norm": 0.1940995454788208,
1081
- "learning_rate": 0.00010200000000000001,
1082
- "loss": 7.0236,
1083
- "step": 147
1084
- },
1085
- {
1086
- "epoch": 47.36,
1087
- "grad_norm": 0.19615836441516876,
1088
- "learning_rate": 0.00010133333333333335,
1089
- "loss": 6.9282,
1090
- "step": 148
1091
- },
1092
- {
1093
- "epoch": 47.68,
1094
- "grad_norm": 0.2913321554660797,
1095
- "learning_rate": 0.00010066666666666667,
1096
- "loss": 7.0427,
1097
- "step": 149
1098
- },
1099
- {
1100
- "epoch": 48.0,
1101
- "grad_norm": 0.27524253726005554,
1102
- "learning_rate": 0.0001,
1103
- "loss": 6.9014,
1104
- "step": 150
1105
- },
1106
- {
1107
- "epoch": 48.0,
1108
- "eval_clap": 0.07983032613992691,
1109
- "eval_loss": 6.851788520812988,
1110
- "eval_runtime": 134.3414,
1111
- "eval_samples_per_second": 0.06,
1112
- "eval_steps_per_second": 0.06,
1113
- "step": 150
1114
- },
1115
- {
1116
- "epoch": 48.32,
1117
- "grad_norm": 0.17565707862377167,
1118
- "learning_rate": 9.933333333333334e-05,
1119
- "loss": 6.9637,
1120
- "step": 151
1121
- },
1122
- {
1123
- "epoch": 48.64,
1124
- "grad_norm": 0.21315057575702667,
1125
- "learning_rate": 9.866666666666668e-05,
1126
- "loss": 6.9275,
1127
- "step": 152
1128
- },
1129
- {
1130
- "epoch": 48.96,
1131
- "grad_norm": 0.2567092180252075,
1132
- "learning_rate": 9.8e-05,
1133
- "loss": 6.9075,
1134
- "step": 153
1135
- },
1136
- {
1137
- "epoch": 49.28,
1138
- "grad_norm": 0.2144940197467804,
1139
- "learning_rate": 9.733333333333335e-05,
1140
- "loss": 7.0192,
1141
- "step": 154
1142
- },
1143
- {
1144
- "epoch": 49.6,
1145
- "grad_norm": 0.19650296866893768,
1146
- "learning_rate": 9.666666666666667e-05,
1147
- "loss": 6.8081,
1148
- "step": 155
1149
- },
1150
- {
1151
- "epoch": 49.92,
1152
- "grad_norm": 0.3488261103630066,
1153
- "learning_rate": 9.6e-05,
1154
- "loss": 7.0313,
1155
- "step": 156
1156
- },
1157
- {
1158
- "epoch": 50.24,
1159
- "grad_norm": 0.24722012877464294,
1160
- "learning_rate": 9.533333333333334e-05,
1161
- "loss": 7.0769,
1162
- "step": 157
1163
- },
1164
- {
1165
- "epoch": 50.56,
1166
- "grad_norm": 0.16449204087257385,
1167
- "learning_rate": 9.466666666666667e-05,
1168
- "loss": 7.0539,
1169
- "step": 158
1170
- },
1171
- {
1172
- "epoch": 50.88,
1173
- "grad_norm": 0.3687060475349426,
1174
- "learning_rate": 9.4e-05,
1175
- "loss": 6.8257,
1176
- "step": 159
1177
- },
1178
- {
1179
- "epoch": 51.2,
1180
- "grad_norm": 0.20042240619659424,
1181
- "learning_rate": 9.333333333333334e-05,
1182
- "loss": 6.8647,
1183
- "step": 160
1184
- },
1185
- {
1186
- "epoch": 51.52,
1187
- "grad_norm": 0.26894885301589966,
1188
- "learning_rate": 9.266666666666666e-05,
1189
- "loss": 6.6582,
1190
- "step": 161
1191
- },
1192
- {
1193
- "epoch": 51.84,
1194
- "grad_norm": 0.23671694099903107,
1195
- "learning_rate": 9.200000000000001e-05,
1196
- "loss": 7.0927,
1197
- "step": 162
1198
- },
1199
- {
1200
- "epoch": 52.16,
1201
- "grad_norm": 0.2635565996170044,
1202
- "learning_rate": 9.133333333333334e-05,
1203
- "loss": 6.8098,
1204
- "step": 163
1205
- },
1206
- {
1207
- "epoch": 52.48,
1208
- "grad_norm": 0.2673339545726776,
1209
- "learning_rate": 9.066666666666667e-05,
1210
- "loss": 6.953,
1211
- "step": 164
1212
- },
1213
- {
1214
- "epoch": 52.8,
1215
- "grad_norm": 0.23842185735702515,
1216
- "learning_rate": 9e-05,
1217
- "loss": 7.0825,
1218
- "step": 165
1219
- },
1220
- {
1221
- "epoch": 53.12,
1222
- "grad_norm": 0.29405054450035095,
1223
- "learning_rate": 8.933333333333334e-05,
1224
- "loss": 6.6955,
1225
- "step": 166
1226
- },
1227
- {
1228
- "epoch": 53.44,
1229
- "grad_norm": 0.22257141768932343,
1230
- "learning_rate": 8.866666666666668e-05,
1231
- "loss": 6.8635,
1232
- "step": 167
1233
- },
1234
- {
1235
- "epoch": 53.76,
1236
- "grad_norm": 0.22679895162582397,
1237
- "learning_rate": 8.800000000000001e-05,
1238
- "loss": 7.0,
1239
- "step": 168
1240
- },
1241
- {
1242
- "epoch": 54.08,
1243
- "grad_norm": 0.26071757078170776,
1244
- "learning_rate": 8.733333333333333e-05,
1245
- "loss": 6.8054,
1246
- "step": 169
1247
- },
1248
- {
1249
- "epoch": 54.4,
1250
- "grad_norm": 0.2066843956708908,
1251
- "learning_rate": 8.666666666666667e-05,
1252
- "loss": 7.0114,
1253
- "step": 170
1254
- },
1255
- {
1256
- "epoch": 54.72,
1257
- "grad_norm": 0.2785058319568634,
1258
- "learning_rate": 8.6e-05,
1259
- "loss": 6.9627,
1260
- "step": 171
1261
- },
1262
- {
1263
- "epoch": 55.04,
1264
- "grad_norm": 0.2420412003993988,
1265
- "learning_rate": 8.533333333333334e-05,
1266
- "loss": 6.9166,
1267
- "step": 172
1268
- },
1269
- {
1270
- "epoch": 55.36,
1271
- "grad_norm": 0.184980571269989,
1272
- "learning_rate": 8.466666666666667e-05,
1273
- "loss": 6.9763,
1274
- "step": 173
1275
- },
1276
- {
1277
- "epoch": 55.68,
1278
- "grad_norm": 0.25099173188209534,
1279
- "learning_rate": 8.4e-05,
1280
- "loss": 6.7784,
1281
- "step": 174
1282
- },
1283
- {
1284
- "epoch": 56.0,
1285
- "grad_norm": 0.3113076984882355,
1286
- "learning_rate": 8.333333333333334e-05,
1287
- "loss": 7.0709,
1288
- "step": 175
1289
- },
1290
- {
1291
- "epoch": 56.0,
1292
- "eval_clap": 0.045835964381694794,
1293
- "eval_loss": 6.8744659423828125,
1294
- "eval_runtime": 134.0056,
1295
- "eval_samples_per_second": 0.06,
1296
- "eval_steps_per_second": 0.06,
1297
- "step": 175
1298
- },
1299
- {
1300
- "epoch": 56.32,
1301
- "grad_norm": 0.1998237520456314,
1302
- "learning_rate": 8.266666666666667e-05,
1303
- "loss": 6.9853,
1304
- "step": 176
1305
- },
1306
- {
1307
- "epoch": 56.64,
1308
- "grad_norm": 0.19230717420578003,
1309
- "learning_rate": 8.2e-05,
1310
- "loss": 6.7187,
1311
- "step": 177
1312
- },
1313
- {
1314
- "epoch": 56.96,
1315
- "grad_norm": 0.20907418429851532,
1316
- "learning_rate": 8.133333333333334e-05,
1317
- "loss": 7.0254,
1318
- "step": 178
1319
- },
1320
- {
1321
- "epoch": 57.28,
1322
- "grad_norm": 0.24263373017311096,
1323
- "learning_rate": 8.066666666666667e-05,
1324
- "loss": 7.0215,
1325
- "step": 179
1326
- },
1327
- {
1328
- "epoch": 57.6,
1329
- "grad_norm": 0.2273831069469452,
1330
- "learning_rate": 8e-05,
1331
- "loss": 6.9082,
1332
- "step": 180
1333
- },
1334
- {
1335
- "epoch": 57.92,
1336
- "grad_norm": 0.2610955834388733,
1337
- "learning_rate": 7.933333333333334e-05,
1338
- "loss": 6.8793,
1339
- "step": 181
1340
- },
1341
- {
1342
- "epoch": 58.24,
1343
- "grad_norm": 0.28763657808303833,
1344
- "learning_rate": 7.866666666666666e-05,
1345
- "loss": 6.8458,
1346
- "step": 182
1347
- },
1348
- {
1349
- "epoch": 58.56,
1350
- "grad_norm": 0.2956106662750244,
1351
- "learning_rate": 7.800000000000001e-05,
1352
- "loss": 6.8355,
1353
- "step": 183
1354
- },
1355
- {
1356
- "epoch": 58.88,
1357
- "grad_norm": 0.23731613159179688,
1358
- "learning_rate": 7.733333333333333e-05,
1359
- "loss": 6.978,
1360
- "step": 184
1361
- },
1362
- {
1363
- "epoch": 59.2,
1364
- "grad_norm": 0.2779642343521118,
1365
- "learning_rate": 7.666666666666667e-05,
1366
- "loss": 6.967,
1367
- "step": 185
1368
- },
1369
- {
1370
- "epoch": 59.52,
1371
- "grad_norm": 0.30202949047088623,
1372
- "learning_rate": 7.6e-05,
1373
- "loss": 6.9157,
1374
- "step": 186
1375
- },
1376
- {
1377
- "epoch": 59.84,
1378
- "grad_norm": 0.23862633109092712,
1379
- "learning_rate": 7.533333333333334e-05,
1380
- "loss": 6.9478,
1381
- "step": 187
1382
- },
1383
- {
1384
- "epoch": 60.16,
1385
- "grad_norm": 0.25933969020843506,
1386
- "learning_rate": 7.466666666666667e-05,
1387
- "loss": 6.979,
1388
- "step": 188
1389
- },
1390
- {
1391
- "epoch": 60.48,
1392
- "grad_norm": 0.2394740879535675,
1393
- "learning_rate": 7.4e-05,
1394
- "loss": 6.897,
1395
- "step": 189
1396
- },
1397
- {
1398
- "epoch": 60.8,
1399
- "grad_norm": 0.1908213347196579,
1400
- "learning_rate": 7.333333333333333e-05,
1401
- "loss": 6.8422,
1402
- "step": 190
1403
- },
1404
- {
1405
- "epoch": 61.12,
1406
- "grad_norm": 0.26108992099761963,
1407
- "learning_rate": 7.266666666666667e-05,
1408
- "loss": 7.0873,
1409
- "step": 191
1410
- },
1411
- {
1412
- "epoch": 61.44,
1413
- "grad_norm": 0.338616281747818,
1414
- "learning_rate": 7.2e-05,
1415
- "loss": 6.9752,
1416
- "step": 192
1417
- },
1418
- {
1419
- "epoch": 61.76,
1420
- "grad_norm": 0.21794290840625763,
1421
- "learning_rate": 7.133333333333334e-05,
1422
- "loss": 6.9106,
1423
- "step": 193
1424
- },
1425
- {
1426
- "epoch": 62.08,
1427
- "grad_norm": 0.3236982524394989,
1428
- "learning_rate": 7.066666666666667e-05,
1429
- "loss": 6.8506,
1430
- "step": 194
1431
- },
1432
- {
1433
- "epoch": 62.4,
1434
- "grad_norm": 0.2932833433151245,
1435
- "learning_rate": 7e-05,
1436
- "loss": 6.9273,
1437
- "step": 195
1438
- },
1439
- {
1440
- "epoch": 62.72,
1441
- "grad_norm": 0.1730615496635437,
1442
- "learning_rate": 6.933333333333334e-05,
1443
- "loss": 7.004,
1444
- "step": 196
1445
- },
1446
- {
1447
- "epoch": 63.04,
1448
- "grad_norm": 0.36074626445770264,
1449
- "learning_rate": 6.866666666666666e-05,
1450
- "loss": 6.4197,
1451
- "step": 197
1452
- },
1453
- {
1454
- "epoch": 63.36,
1455
- "grad_norm": 0.18060831725597382,
1456
- "learning_rate": 6.800000000000001e-05,
1457
- "loss": 6.8792,
1458
- "step": 198
1459
- },
1460
- {
1461
- "epoch": 63.68,
1462
- "grad_norm": 0.17196445167064667,
1463
- "learning_rate": 6.733333333333333e-05,
1464
- "loss": 7.0094,
1465
- "step": 199
1466
- },
1467
- {
1468
- "epoch": 64.0,
1469
- "grad_norm": 0.23665176331996918,
1470
- "learning_rate": 6.666666666666667e-05,
1471
- "loss": 6.8413,
1472
- "step": 200
1473
- },
1474
- {
1475
- "epoch": 64.0,
1476
- "eval_clap": 0.038681816309690475,
1477
- "eval_loss": 6.884893417358398,
1478
- "eval_runtime": 135.5327,
1479
- "eval_samples_per_second": 0.059,
1480
- "eval_steps_per_second": 0.059,
1481
- "step": 200
1482
- },
1483
- {
1484
- "epoch": 64.32,
1485
- "grad_norm": 0.23033128678798676,
1486
- "learning_rate": 6.6e-05,
1487
- "loss": 6.603,
1488
- "step": 201
1489
- },
1490
- {
1491
- "epoch": 64.64,
1492
- "grad_norm": 0.2611420750617981,
1493
- "learning_rate": 6.533333333333334e-05,
1494
- "loss": 6.9209,
1495
- "step": 202
1496
- },
1497
- {
1498
- "epoch": 64.96,
1499
- "grad_norm": 0.25133243203163147,
1500
- "learning_rate": 6.466666666666666e-05,
1501
- "loss": 6.9875,
1502
- "step": 203
1503
- },
1504
- {
1505
- "epoch": 65.28,
1506
- "grad_norm": 0.20293930172920227,
1507
- "learning_rate": 6.400000000000001e-05,
1508
- "loss": 6.9061,
1509
- "step": 204
1510
- },
1511
- {
1512
- "epoch": 65.6,
1513
- "grad_norm": 0.23003217577934265,
1514
- "learning_rate": 6.333333333333333e-05,
1515
- "loss": 6.9289,
1516
- "step": 205
1517
- },
1518
- {
1519
- "epoch": 65.92,
1520
- "grad_norm": 0.20595434308052063,
1521
- "learning_rate": 6.266666666666667e-05,
1522
- "loss": 6.896,
1523
- "step": 206
1524
- },
1525
- {
1526
- "epoch": 66.24,
1527
- "grad_norm": 0.26464059948921204,
1528
- "learning_rate": 6.2e-05,
1529
- "loss": 6.9399,
1530
- "step": 207
1531
- },
1532
- {
1533
- "epoch": 66.56,
1534
- "grad_norm": 0.2586626708507538,
1535
- "learning_rate": 6.133333333333334e-05,
1536
- "loss": 7.0101,
1537
- "step": 208
1538
- },
1539
- {
1540
- "epoch": 66.88,
1541
- "grad_norm": 0.33113348484039307,
1542
- "learning_rate": 6.066666666666667e-05,
1543
- "loss": 6.9379,
1544
- "step": 209
1545
- },
1546
- {
1547
- "epoch": 67.2,
1548
- "grad_norm": 0.35679078102111816,
1549
- "learning_rate": 6e-05,
1550
- "loss": 6.6498,
1551
- "step": 210
1552
- },
1553
- {
1554
- "epoch": 67.52,
1555
- "grad_norm": 0.25175514817237854,
1556
- "learning_rate": 5.9333333333333343e-05,
1557
- "loss": 6.9036,
1558
- "step": 211
1559
- },
1560
- {
1561
- "epoch": 67.84,
1562
- "grad_norm": 0.20598991215229034,
1563
- "learning_rate": 5.866666666666667e-05,
1564
- "loss": 6.9485,
1565
- "step": 212
1566
- },
1567
- {
1568
- "epoch": 68.16,
1569
- "grad_norm": 0.3204483985900879,
1570
- "learning_rate": 5.8e-05,
1571
- "loss": 6.7133,
1572
- "step": 213
1573
- },
1574
- {
1575
- "epoch": 68.48,
1576
- "grad_norm": 0.19971367716789246,
1577
- "learning_rate": 5.7333333333333336e-05,
1578
- "loss": 6.9365,
1579
- "step": 214
1580
- },
1581
- {
1582
- "epoch": 68.8,
1583
- "grad_norm": 0.32582300901412964,
1584
- "learning_rate": 5.666666666666667e-05,
1585
- "loss": 6.902,
1586
- "step": 215
1587
- },
1588
- {
1589
- "epoch": 69.12,
1590
- "grad_norm": 0.3089292049407959,
1591
- "learning_rate": 5.6000000000000006e-05,
1592
- "loss": 6.9996,
1593
- "step": 216
1594
- },
1595
- {
1596
- "epoch": 69.44,
1597
- "grad_norm": 0.19020797312259674,
1598
- "learning_rate": 5.5333333333333334e-05,
1599
- "loss": 6.9901,
1600
- "step": 217
1601
- },
1602
- {
1603
- "epoch": 69.76,
1604
- "grad_norm": 0.23994866013526917,
1605
- "learning_rate": 5.466666666666666e-05,
1606
- "loss": 6.7032,
1607
- "step": 218
1608
- },
1609
- {
1610
- "epoch": 70.08,
1611
- "grad_norm": 0.2522318661212921,
1612
- "learning_rate": 5.4000000000000005e-05,
1613
- "loss": 6.9847,
1614
- "step": 219
1615
- },
1616
- {
1617
- "epoch": 70.4,
1618
- "grad_norm": 0.26551997661590576,
1619
- "learning_rate": 5.333333333333333e-05,
1620
- "loss": 6.973,
1621
- "step": 220
1622
- },
1623
- {
1624
- "epoch": 70.72,
1625
- "grad_norm": 0.27997300028800964,
1626
- "learning_rate": 5.266666666666666e-05,
1627
- "loss": 6.7786,
1628
- "step": 221
1629
- },
1630
- {
1631
- "epoch": 71.04,
1632
- "grad_norm": 0.27488794922828674,
1633
- "learning_rate": 5.2000000000000004e-05,
1634
- "loss": 6.9615,
1635
- "step": 222
1636
- },
1637
- {
1638
- "epoch": 71.36,
1639
- "grad_norm": 0.2785004675388336,
1640
- "learning_rate": 5.133333333333333e-05,
1641
- "loss": 6.8345,
1642
- "step": 223
1643
- },
1644
- {
1645
- "epoch": 71.68,
1646
- "grad_norm": 0.29756563901901245,
1647
- "learning_rate": 5.0666666666666674e-05,
1648
- "loss": 6.9091,
1649
- "step": 224
1650
- },
1651
- {
1652
- "epoch": 72.0,
1653
- "grad_norm": 0.20768436789512634,
1654
- "learning_rate": 5e-05,
1655
- "loss": 6.9145,
1656
- "step": 225
1657
- },
1658
- {
1659
- "epoch": 72.0,
1660
- "eval_clap": 0.060088254511356354,
1661
- "eval_loss": 6.875311374664307,
1662
- "eval_runtime": 134.7247,
1663
- "eval_samples_per_second": 0.059,
1664
- "eval_steps_per_second": 0.059,
1665
- "step": 225
1666
- },
1667
- {
1668
- "epoch": 72.32,
1669
- "grad_norm": 0.20562250912189484,
1670
- "learning_rate": 4.933333333333334e-05,
1671
- "loss": 6.9109,
1672
- "step": 226
1673
- },
1674
- {
1675
- "epoch": 72.64,
1676
- "grad_norm": 0.24746154248714447,
1677
- "learning_rate": 4.866666666666667e-05,
1678
- "loss": 7.0489,
1679
- "step": 227
1680
- },
1681
- {
1682
- "epoch": 72.96,
1683
- "grad_norm": 0.2672075629234314,
1684
- "learning_rate": 4.8e-05,
1685
- "loss": 6.546,
1686
- "step": 228
1687
- },
1688
- {
1689
- "epoch": 73.28,
1690
- "grad_norm": 0.31758585572242737,
1691
- "learning_rate": 4.7333333333333336e-05,
1692
- "loss": 6.9999,
1693
- "step": 229
1694
- },
1695
- {
1696
- "epoch": 73.6,
1697
- "grad_norm": 0.22248242795467377,
1698
- "learning_rate": 4.666666666666667e-05,
1699
- "loss": 6.898,
1700
- "step": 230
1701
- },
1702
- {
1703
- "epoch": 73.92,
1704
- "grad_norm": 0.241860494017601,
1705
- "learning_rate": 4.600000000000001e-05,
1706
- "loss": 6.6478,
1707
- "step": 231
1708
- },
1709
- {
1710
- "epoch": 74.24,
1711
- "grad_norm": 0.26167288422584534,
1712
- "learning_rate": 4.5333333333333335e-05,
1713
- "loss": 6.9651,
1714
- "step": 232
1715
- },
1716
- {
1717
- "epoch": 74.56,
1718
- "grad_norm": 0.2521307170391083,
1719
- "learning_rate": 4.466666666666667e-05,
1720
- "loss": 6.9193,
1721
- "step": 233
1722
- },
1723
- {
1724
- "epoch": 74.88,
1725
- "grad_norm": 0.2989499568939209,
1726
- "learning_rate": 4.4000000000000006e-05,
1727
- "loss": 6.7996,
1728
- "step": 234
1729
- },
1730
- {
1731
- "epoch": 75.2,
1732
- "grad_norm": 0.3191698491573334,
1733
- "learning_rate": 4.3333333333333334e-05,
1734
- "loss": 6.9447,
1735
- "step": 235
1736
- },
1737
- {
1738
- "epoch": 75.52,
1739
- "grad_norm": 0.2952893376350403,
1740
- "learning_rate": 4.266666666666667e-05,
1741
- "loss": 6.7176,
1742
- "step": 236
1743
- },
1744
- {
1745
- "epoch": 75.84,
1746
- "grad_norm": 0.27887699007987976,
1747
- "learning_rate": 4.2e-05,
1748
- "loss": 6.937,
1749
- "step": 237
1750
- },
1751
- {
1752
- "epoch": 76.16,
1753
- "grad_norm": 0.3343954384326935,
1754
- "learning_rate": 4.133333333333333e-05,
1755
- "loss": 7.0076,
1756
- "step": 238
1757
- },
1758
- {
1759
- "epoch": 76.48,
1760
- "grad_norm": 0.2325616329908371,
1761
- "learning_rate": 4.066666666666667e-05,
1762
- "loss": 6.6277,
1763
- "step": 239
1764
- },
1765
- {
1766
- "epoch": 76.8,
1767
- "grad_norm": 0.2327420562505722,
1768
- "learning_rate": 4e-05,
1769
- "loss": 6.9352,
1770
- "step": 240
1771
- },
1772
- {
1773
- "epoch": 77.12,
1774
- "grad_norm": 0.35272374749183655,
1775
- "learning_rate": 3.933333333333333e-05,
1776
- "loss": 6.6621,
1777
- "step": 241
1778
- },
1779
- {
1780
- "epoch": 77.44,
1781
- "grad_norm": 0.28441712260246277,
1782
- "learning_rate": 3.866666666666667e-05,
1783
- "loss": 6.7944,
1784
- "step": 242
1785
- },
1786
- {
1787
- "epoch": 77.76,
1788
- "grad_norm": 0.3055993318557739,
1789
- "learning_rate": 3.8e-05,
1790
- "loss": 6.665,
1791
- "step": 243
1792
- },
1793
- {
1794
- "epoch": 78.08,
1795
- "grad_norm": 0.5231341123580933,
1796
- "learning_rate": 3.733333333333334e-05,
1797
- "loss": 6.8914,
1798
- "step": 244
1799
- },
1800
- {
1801
- "epoch": 78.4,
1802
- "grad_norm": 0.32790327072143555,
1803
- "learning_rate": 3.6666666666666666e-05,
1804
- "loss": 6.7542,
1805
- "step": 245
1806
- },
1807
- {
1808
- "epoch": 78.72,
1809
- "grad_norm": 0.23085571825504303,
1810
- "learning_rate": 3.6e-05,
1811
- "loss": 6.9587,
1812
- "step": 246
1813
- },
1814
- {
1815
- "epoch": 79.04,
1816
- "grad_norm": 0.3628631830215454,
1817
- "learning_rate": 3.5333333333333336e-05,
1818
- "loss": 6.8893,
1819
- "step": 247
1820
- },
1821
- {
1822
- "epoch": 79.36,
1823
- "grad_norm": 0.2164786458015442,
1824
- "learning_rate": 3.466666666666667e-05,
1825
- "loss": 6.9032,
1826
- "step": 248
1827
- },
1828
- {
1829
- "epoch": 79.68,
1830
- "grad_norm": 0.23754926025867462,
1831
- "learning_rate": 3.4000000000000007e-05,
1832
- "loss": 6.8248,
1833
- "step": 249
1834
- },
1835
- {
1836
- "epoch": 80.0,
1837
- "grad_norm": 0.44520848989486694,
1838
- "learning_rate": 3.3333333333333335e-05,
1839
- "loss": 6.7884,
1840
- "step": 250
1841
- },
1842
- {
1843
- "epoch": 80.0,
1844
- "eval_clap": 0.030136138200759888,
1845
- "eval_loss": 6.89333438873291,
1846
- "eval_runtime": 134.3576,
1847
- "eval_samples_per_second": 0.06,
1848
- "eval_steps_per_second": 0.06,
1849
- "step": 250
1850
- },
1851
- {
1852
- "epoch": 80.32,
1853
- "grad_norm": 0.24849092960357666,
1854
- "learning_rate": 3.266666666666667e-05,
1855
- "loss": 6.6811,
1856
- "step": 251
1857
- },
1858
- {
1859
- "epoch": 80.64,
1860
- "grad_norm": 0.2928939461708069,
1861
- "learning_rate": 3.2000000000000005e-05,
1862
- "loss": 6.924,
1863
- "step": 252
1864
- },
1865
- {
1866
- "epoch": 80.96,
1867
- "grad_norm": 0.3306042551994324,
1868
- "learning_rate": 3.1333333333333334e-05,
1869
- "loss": 6.8529,
1870
- "step": 253
1871
- },
1872
- {
1873
- "epoch": 81.28,
1874
- "grad_norm": 0.4894237220287323,
1875
- "learning_rate": 3.066666666666667e-05,
1876
- "loss": 6.8217,
1877
- "step": 254
1878
- },
1879
- {
1880
- "epoch": 81.6,
1881
- "grad_norm": 0.19919753074645996,
1882
- "learning_rate": 3e-05,
1883
- "loss": 6.8936,
1884
- "step": 255
1885
- },
1886
- {
1887
- "epoch": 81.92,
1888
- "grad_norm": 0.2523089051246643,
1889
- "learning_rate": 2.9333333333333336e-05,
1890
- "loss": 6.893,
1891
- "step": 256
1892
- },
1893
- {
1894
- "epoch": 82.24,
1895
- "grad_norm": 0.32805877923965454,
1896
- "learning_rate": 2.8666666666666668e-05,
1897
- "loss": 6.9103,
1898
- "step": 257
1899
- },
1900
- {
1901
- "epoch": 82.56,
1902
- "grad_norm": 0.3531396687030792,
1903
- "learning_rate": 2.8000000000000003e-05,
1904
- "loss": 6.8738,
1905
- "step": 258
1906
- },
1907
- {
1908
- "epoch": 82.88,
1909
- "grad_norm": 0.24928686022758484,
1910
- "learning_rate": 2.733333333333333e-05,
1911
- "loss": 6.904,
1912
- "step": 259
1913
- },
1914
- {
1915
- "epoch": 83.2,
1916
- "grad_norm": 0.2684423327445984,
1917
- "learning_rate": 2.6666666666666667e-05,
1918
- "loss": 6.7875,
1919
- "step": 260
1920
- },
1921
- {
1922
- "epoch": 83.52,
1923
- "grad_norm": 0.3166234791278839,
1924
- "learning_rate": 2.6000000000000002e-05,
1925
- "loss": 6.912,
1926
- "step": 261
1927
- },
1928
- {
1929
- "epoch": 83.84,
1930
- "grad_norm": 0.3247949481010437,
1931
- "learning_rate": 2.5333333333333337e-05,
1932
- "loss": 6.8424,
1933
- "step": 262
1934
- },
1935
- {
1936
- "epoch": 84.16,
1937
- "grad_norm": 0.3366314470767975,
1938
- "learning_rate": 2.466666666666667e-05,
1939
- "loss": 6.9313,
1940
- "step": 263
1941
- },
1942
- {
1943
- "epoch": 84.48,
1944
- "grad_norm": 0.3224945366382599,
1945
- "learning_rate": 2.4e-05,
1946
- "loss": 6.4157,
1947
- "step": 264
1948
- },
1949
- {
1950
- "epoch": 84.8,
1951
- "grad_norm": 0.21994070708751678,
1952
- "learning_rate": 2.3333333333333336e-05,
1953
- "loss": 6.9858,
1954
- "step": 265
1955
- },
1956
- {
1957
- "epoch": 85.12,
1958
- "grad_norm": 0.29425758123397827,
1959
- "learning_rate": 2.2666666666666668e-05,
1960
- "loss": 6.8313,
1961
- "step": 266
1962
- },
1963
- {
1964
- "epoch": 85.44,
1965
- "grad_norm": 0.27505239844322205,
1966
- "learning_rate": 2.2000000000000003e-05,
1967
- "loss": 6.6019,
1968
- "step": 267
1969
- },
1970
- {
1971
- "epoch": 85.76,
1972
- "grad_norm": 0.28663650155067444,
1973
- "learning_rate": 2.1333333333333335e-05,
1974
- "loss": 6.9485,
1975
- "step": 268
1976
- },
1977
- {
1978
- "epoch": 86.08,
1979
- "grad_norm": 0.24525445699691772,
1980
- "learning_rate": 2.0666666666666666e-05,
1981
- "loss": 6.9881,
1982
- "step": 269
1983
- },
1984
- {
1985
- "epoch": 86.4,
1986
- "grad_norm": 0.287568598985672,
1987
- "learning_rate": 2e-05,
1988
- "loss": 6.6525,
1989
- "step": 270
1990
- },
1991
- {
1992
- "epoch": 86.72,
1993
- "grad_norm": 0.27775782346725464,
1994
- "learning_rate": 1.9333333333333333e-05,
1995
- "loss": 6.9163,
1996
- "step": 271
1997
- },
1998
- {
1999
- "epoch": 87.04,
2000
- "grad_norm": 0.34429267048835754,
2001
- "learning_rate": 1.866666666666667e-05,
2002
- "loss": 6.946,
2003
- "step": 272
2004
- },
2005
- {
2006
- "epoch": 87.36,
2007
- "grad_norm": 0.25098660588264465,
2008
- "learning_rate": 1.8e-05,
2009
- "loss": 6.8002,
2010
- "step": 273
2011
- },
2012
- {
2013
- "epoch": 87.68,
2014
- "grad_norm": 0.38572391867637634,
2015
- "learning_rate": 1.7333333333333336e-05,
2016
- "loss": 6.9101,
2017
- "step": 274
2018
- },
2019
- {
2020
- "epoch": 88.0,
2021
- "grad_norm": 0.3887104094028473,
2022
- "learning_rate": 1.6666666666666667e-05,
2023
- "loss": 6.827,
2024
- "step": 275
2025
- },
2026
- {
2027
- "epoch": 88.0,
2028
- "eval_clap": 0.040258340537548065,
2029
- "eval_loss": 6.855799674987793,
2030
- "eval_runtime": 133.3815,
2031
- "eval_samples_per_second": 0.06,
2032
- "eval_steps_per_second": 0.06,
2033
- "step": 275
2034
- },
2035
- {
2036
- "epoch": 88.32,
2037
- "grad_norm": 0.19003379344940186,
2038
- "learning_rate": 1.6000000000000003e-05,
2039
- "loss": 7.0101,
2040
- "step": 276
2041
- },
2042
- {
2043
- "epoch": 88.64,
2044
- "grad_norm": 0.20078812539577484,
2045
- "learning_rate": 1.5333333333333334e-05,
2046
- "loss": 6.6439,
2047
- "step": 277
2048
- },
2049
- {
2050
- "epoch": 88.96,
2051
- "grad_norm": 0.3061939775943756,
2052
- "learning_rate": 1.4666666666666668e-05,
2053
- "loss": 6.8438,
2054
- "step": 278
2055
- },
2056
- {
2057
- "epoch": 89.28,
2058
- "grad_norm": 0.3286401629447937,
2059
- "learning_rate": 1.4000000000000001e-05,
2060
- "loss": 6.9421,
2061
- "step": 279
2062
- },
2063
- {
2064
- "epoch": 89.6,
2065
- "grad_norm": 0.23420895636081696,
2066
- "learning_rate": 1.3333333333333333e-05,
2067
- "loss": 6.8237,
2068
- "step": 280
2069
- },
2070
- {
2071
- "epoch": 89.92,
2072
- "grad_norm": 0.41902750730514526,
2073
- "learning_rate": 1.2666666666666668e-05,
2074
- "loss": 6.911,
2075
- "step": 281
2076
- },
2077
- {
2078
- "epoch": 90.24,
2079
- "grad_norm": 0.2631544768810272,
2080
- "learning_rate": 1.2e-05,
2081
- "loss": 6.635,
2082
- "step": 282
2083
- },
2084
- {
2085
- "epoch": 90.56,
2086
- "grad_norm": 0.2064095437526703,
2087
- "learning_rate": 1.1333333333333334e-05,
2088
- "loss": 6.9659,
2089
- "step": 283
2090
- },
2091
- {
2092
- "epoch": 90.88,
2093
- "grad_norm": 0.23568947613239288,
2094
- "learning_rate": 1.0666666666666667e-05,
2095
- "loss": 6.8865,
2096
- "step": 284
2097
- },
2098
- {
2099
- "epoch": 91.2,
2100
- "grad_norm": 0.3474428653717041,
2101
- "learning_rate": 1e-05,
2102
- "loss": 6.6739,
2103
- "step": 285
2104
- },
2105
- {
2106
- "epoch": 91.52,
2107
- "grad_norm": 0.3581945598125458,
2108
- "learning_rate": 9.333333333333334e-06,
2109
- "loss": 6.8917,
2110
- "step": 286
2111
- },
2112
- {
2113
- "epoch": 91.84,
2114
- "grad_norm": 0.3007957935333252,
2115
- "learning_rate": 8.666666666666668e-06,
2116
- "loss": 6.8773,
2117
- "step": 287
2118
- },
2119
- {
2120
- "epoch": 92.16,
2121
- "grad_norm": 0.3932383358478546,
2122
- "learning_rate": 8.000000000000001e-06,
2123
- "loss": 6.8458,
2124
- "step": 288
2125
- },
2126
- {
2127
- "epoch": 92.48,
2128
- "grad_norm": 0.24342194199562073,
2129
- "learning_rate": 7.333333333333334e-06,
2130
- "loss": 6.7863,
2131
- "step": 289
2132
- },
2133
- {
2134
- "epoch": 92.8,
2135
- "grad_norm": 0.2581452429294586,
2136
- "learning_rate": 6.666666666666667e-06,
2137
- "loss": 6.9605,
2138
- "step": 290
2139
- },
2140
- {
2141
- "epoch": 93.12,
2142
- "grad_norm": 0.22125321626663208,
2143
- "learning_rate": 6e-06,
2144
- "loss": 6.8853,
2145
- "step": 291
2146
- },
2147
- {
2148
- "epoch": 93.44,
2149
- "grad_norm": 0.2505747377872467,
2150
- "learning_rate": 5.333333333333334e-06,
2151
- "loss": 6.7369,
2152
- "step": 292
2153
- },
2154
- {
2155
- "epoch": 93.76,
2156
- "grad_norm": 0.2498222291469574,
2157
- "learning_rate": 4.666666666666667e-06,
2158
- "loss": 6.8869,
2159
- "step": 293
2160
- },
2161
- {
2162
- "epoch": 94.08,
2163
- "grad_norm": 0.21589802205562592,
2164
- "learning_rate": 4.000000000000001e-06,
2165
- "loss": 6.8991,
2166
- "step": 294
2167
- },
2168
- {
2169
- "epoch": 94.4,
2170
- "grad_norm": 0.24404552578926086,
2171
- "learning_rate": 3.3333333333333333e-06,
2172
- "loss": 6.9614,
2173
- "step": 295
2174
- },
2175
- {
2176
- "epoch": 94.72,
2177
- "grad_norm": 0.25962963700294495,
2178
- "learning_rate": 2.666666666666667e-06,
2179
- "loss": 6.7497,
2180
- "step": 296
2181
- },
2182
- {
2183
- "epoch": 95.04,
2184
- "grad_norm": 0.28752872347831726,
2185
- "learning_rate": 2.0000000000000003e-06,
2186
- "loss": 6.9074,
2187
- "step": 297
2188
- },
2189
- {
2190
- "epoch": 95.36,
2191
- "grad_norm": 0.26390671730041504,
2192
- "learning_rate": 1.3333333333333334e-06,
2193
- "loss": 6.8569,
2194
- "step": 298
2195
- },
2196
- {
2197
- "epoch": 95.68,
2198
- "grad_norm": 0.31729447841644287,
2199
- "learning_rate": 6.666666666666667e-07,
2200
- "loss": 6.6868,
2201
- "step": 299
2202
- },
2203
- {
2204
- "epoch": 96.0,
2205
- "grad_norm": 0.21429355442523956,
2206
- "learning_rate": 0.0,
2207
- "loss": 6.9368,
2208
- "step": 300
2209
- },
2210
- {
2211
- "epoch": 96.0,
2212
- "eval_clap": 0.043407466262578964,
2213
- "eval_loss": 6.859947204589844,
2214
- "eval_runtime": 136.6076,
2215
- "eval_samples_per_second": 0.059,
2216
- "eval_steps_per_second": 0.059,
2217
- "step": 300
2218
- },
2219
- {
2220
- "epoch": 96.0,
2221
- "step": 300,
2222
- "total_flos": 95943536978688.0,
2223
- "train_loss": 7.054300208091735,
2224
- "train_runtime": 2800.3256,
2225
- "train_samples_per_second": 1.75,
2226
- "train_steps_per_second": 0.107
2227
  }
2228
  ],
2229
  "logging_steps": 1.0,
2230
- "max_steps": 300,
2231
  "num_input_tokens_seen": 0,
2232
- "num_train_epochs": 100,
2233
  "save_steps": 500,
2234
  "stateful_callbacks": {
2235
  "TrainerControl": {
@@ -2243,7 +119,7 @@
2243
  "attributes": {}
2244
  }
2245
  },
2246
- "total_flos": 95943536978688.0,
2247
  "train_batch_size": 2,
2248
  "trial_name": null,
2249
  "trial_params": null
 
1
  {
2
  "best_metric": null,
3
  "best_model_checkpoint": null,
4
+ "epoch": 3.84,
5
  "eval_steps": 25,
6
+ "global_step": 12,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
10
  "log_history": [
11
  {
12
  "epoch": 0.32,
13
+ "grad_norm": 1.3747080564498901,
14
+ "learning_rate": 0.00018333333333333334,
15
+ "loss": 9.5405,
16
  "step": 1
17
  },
18
  {
19
  "epoch": 0.64,
20
+ "grad_norm": 1.4412273168563843,
21
+ "learning_rate": 0.0001666666666666667,
22
+ "loss": 9.4519,
23
  "step": 2
24
  },
25
  {
26
  "epoch": 0.96,
27
+ "grad_norm": 1.961427092552185,
28
+ "learning_rate": 0.00015000000000000001,
29
+ "loss": 9.1814,
30
  "step": 3
31
  },
32
  {
33
  "epoch": 1.28,
34
+ "grad_norm": 2.2182157039642334,
35
+ "learning_rate": 0.00013333333333333334,
36
+ "loss": 8.8873,
37
  "step": 4
38
  },
39
  {
40
  "epoch": 1.6,
41
+ "grad_norm": 2.371889591217041,
42
+ "learning_rate": 0.00011666666666666668,
43
+ "loss": 8.6062,
44
  "step": 5
45
  },
46
  {
47
  "epoch": 1.92,
48
+ "grad_norm": 1.932769536972046,
49
+ "learning_rate": 0.0001,
50
+ "loss": 8.3597,
51
  "step": 6
52
  },
53
  {
54
  "epoch": 2.24,
55
+ "grad_norm": 1.71647047996521,
56
+ "learning_rate": 8.333333333333334e-05,
57
+ "loss": 8.2076,
58
  "step": 7
59
  },
60
  {
61
  "epoch": 2.56,
62
+ "grad_norm": 1.4216786623001099,
63
+ "learning_rate": 6.666666666666667e-05,
64
+ "loss": 8.0357,
65
  "step": 8
66
  },
67
  {
68
  "epoch": 2.88,
69
+ "grad_norm": 1.3276846408843994,
70
+ "learning_rate": 5e-05,
71
+ "loss": 7.9892,
72
  "step": 9
73
  },
74
  {
75
  "epoch": 3.2,
76
+ "grad_norm": 1.295423150062561,
77
+ "learning_rate": 3.3333333333333335e-05,
78
+ "loss": 7.9392,
79
  "step": 10
80
  },
81
  {
82
  "epoch": 3.52,
83
+ "grad_norm": 1.1277278661727905,
84
+ "learning_rate": 1.6666666666666667e-05,
85
+ "loss": 7.8902,
86
  "step": 11
87
  },
88
  {
89
  "epoch": 3.84,
90
+ "grad_norm": 1.0911381244659424,
91
+ "learning_rate": 0.0,
92
+ "loss": 7.8333,
93
  "step": 12
94
  },
95
  {
96
+ "epoch": 3.84,
97
+ "step": 12,
98
+ "total_flos": 22357590798924.0,
99
+ "train_loss": 8.493526140848795,
100
+ "train_runtime": 47.9357,
101
+ "train_samples_per_second": 4.089,
102
+ "train_steps_per_second": 0.25
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
103
  }
104
  ],
105
  "logging_steps": 1.0,
106
+ "max_steps": 12,
107
  "num_input_tokens_seen": 0,
108
+ "num_train_epochs": 4,
109
  "save_steps": 500,
110
  "stateful_callbacks": {
111
  "TrainerControl": {
 
119
  "attributes": {}
120
  }
121
  },
122
+ "total_flos": 22357590798924.0,
123
  "train_batch_size": 2,
124
  "trial_name": null,
125
  "trial_params": null