w2v-bert-2.0-hindi_v1
This model is a fine-tuned version of facebook/w2v-bert-2.0 on an unknown dataset. It achieves the following results on the evaluation set:
- Loss: 0.0787
- Wer: 0.0505
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 3.5356e-05
- train_batch_size: 1
- eval_batch_size: 1
- seed: 42
- gradient_accumulation_steps: 4
- total_train_batch_size: 4
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 2
- mixed_precision_training: Native AMP
Training results
Training Loss | Epoch | Step | Validation Loss | Wer |
---|---|---|---|---|
4.508 | 0.0108 | 300 | 3.5169 | 1.0 |
2.447 | 0.0216 | 600 | 1.1256 | 0.7027 |
1.2978 | 0.0324 | 900 | 0.7873 | 0.4987 |
1.034 | 0.0432 | 1200 | 0.6345 | 0.4258 |
0.9139 | 0.0540 | 1500 | 0.5973 | 0.3962 |
0.8422 | 0.0648 | 1800 | 0.5562 | 0.3586 |
0.7939 | 0.0755 | 2100 | 0.4826 | 0.3295 |
0.7194 | 0.0863 | 2400 | 0.4829 | 0.3266 |
0.737 | 0.0971 | 2700 | 0.4913 | 0.3557 |
0.6676 | 0.1079 | 3000 | 0.4541 | 0.3187 |
0.6265 | 0.1187 | 3300 | 0.4660 | 0.3088 |
0.6296 | 0.1295 | 3600 | 0.4080 | 0.2976 |
0.5943 | 0.1403 | 3900 | 0.4042 | 0.2799 |
0.6052 | 0.1511 | 4200 | 0.4212 | 0.2945 |
0.554 | 0.1619 | 4500 | 0.3867 | 0.2707 |
0.5613 | 0.1727 | 4800 | 0.3947 | 0.2881 |
0.5254 | 0.1835 | 5100 | 0.3586 | 0.2653 |
0.5288 | 0.1943 | 5400 | 0.3691 | 0.2801 |
0.5152 | 0.2051 | 5700 | 0.3619 | 0.2555 |
0.5361 | 0.2158 | 6000 | 0.3288 | 0.2401 |
0.5086 | 0.2266 | 6300 | 0.3216 | 0.2415 |
0.4799 | 0.2374 | 6600 | 0.3366 | 0.2467 |
0.4876 | 0.2482 | 6900 | 0.3282 | 0.2460 |
0.5001 | 0.2590 | 7200 | 0.3300 | 0.2499 |
0.4737 | 0.2698 | 7500 | 0.3494 | 0.2385 |
0.4768 | 0.2806 | 7800 | 0.3058 | 0.2368 |
0.435 | 0.2914 | 8100 | 0.3623 | 0.2561 |
0.4366 | 0.3022 | 8400 | 0.3111 | 0.2359 |
0.4155 | 0.3130 | 8700 | 0.2987 | 0.2348 |
0.4104 | 0.3238 | 9000 | 0.2932 | 0.2312 |
0.406 | 0.3346 | 9300 | 0.3100 | 0.2173 |
0.397 | 0.3454 | 9600 | 0.2972 | 0.2204 |
0.4224 | 0.3561 | 9900 | 0.3044 | 0.2212 |
0.3851 | 0.3669 | 10200 | 0.2941 | 0.2165 |
0.3684 | 0.3777 | 10500 | 0.2742 | 0.2084 |
0.3884 | 0.3885 | 10800 | 0.2633 | 0.2122 |
0.3681 | 0.3993 | 11100 | 0.2799 | 0.2089 |
0.3468 | 0.4101 | 11400 | 0.2873 | 0.2080 |
0.3753 | 0.4209 | 11700 | 0.2533 | 0.1978 |
0.3837 | 0.4317 | 12000 | 0.2628 | 0.2054 |
0.3442 | 0.4425 | 12300 | 0.2609 | 0.1994 |
0.3338 | 0.4533 | 12600 | 0.2512 | 0.2001 |
0.3593 | 0.4641 | 12900 | 0.2472 | 0.1954 |
0.3311 | 0.4749 | 13200 | 0.2705 | 0.1929 |
0.329 | 0.4857 | 13500 | 0.2545 | 0.1997 |
0.3122 | 0.4964 | 13800 | 0.2489 | 0.1931 |
0.3368 | 0.5072 | 14100 | 0.2568 | 0.1924 |
0.3364 | 0.5180 | 14400 | 0.2447 | 0.1949 |
0.367 | 0.5288 | 14700 | 0.2325 | 0.1849 |
0.3253 | 0.5396 | 15000 | 0.2448 | 0.1839 |
0.3166 | 0.5504 | 15300 | 0.2421 | 0.1902 |
0.3232 | 0.5612 | 15600 | 0.2319 | 0.1833 |
0.2959 | 0.5720 | 15900 | 0.2333 | 0.1757 |
0.315 | 0.5828 | 16200 | 0.2372 | 0.1809 |
0.2854 | 0.5936 | 16500 | 0.2400 | 0.1810 |
0.3361 | 0.6044 | 16800 | 0.2573 | 0.1780 |
0.3027 | 0.6152 | 17100 | 0.2308 | 0.1744 |
0.3015 | 0.6259 | 17400 | 0.2405 | 0.1736 |
0.3035 | 0.6367 | 17700 | 0.2322 | 0.1822 |
0.2882 | 0.6475 | 18000 | 0.2297 | 0.1762 |
0.267 | 0.6583 | 18300 | 0.2155 | 0.1652 |
0.2819 | 0.6691 | 18600 | 0.2156 | 0.1612 |
0.2898 | 0.6799 | 18900 | 0.2116 | 0.1585 |
0.2857 | 0.6907 | 19200 | 0.1987 | 0.1531 |
0.2826 | 0.7015 | 19500 | 0.1909 | 0.1556 |
0.2774 | 0.7123 | 19800 | 0.1858 | 0.1499 |
0.293 | 0.7231 | 20100 | 0.1940 | 0.1503 |
0.2771 | 0.7339 | 20400 | 0.1994 | 0.1521 |
0.2664 | 0.7447 | 20700 | 0.1948 | 0.1519 |
0.261 | 0.7555 | 21000 | 0.1875 | 0.1442 |
0.2467 | 0.7662 | 21300 | 0.1887 | 0.1439 |
0.2435 | 0.7770 | 21600 | 0.2039 | 0.1452 |
0.2459 | 0.7878 | 21900 | 0.1825 | 0.1398 |
0.2367 | 0.7986 | 22200 | 0.2007 | 0.1439 |
0.2383 | 0.8094 | 22500 | 0.1901 | 0.1419 |
0.2524 | 0.8202 | 22800 | 0.1727 | 0.1409 |
0.248 | 0.8310 | 23100 | 0.1926 | 0.1405 |
0.265 | 0.8418 | 23400 | 0.1795 | 0.1353 |
0.2469 | 0.8526 | 23700 | 0.1712 | 0.1301 |
0.2212 | 0.8634 | 24000 | 0.1841 | 0.1389 |
0.2591 | 0.8742 | 24300 | 0.1783 | 0.1281 |
0.2311 | 0.8850 | 24600 | 0.1843 | 0.1342 |
0.2297 | 0.8958 | 24900 | 0.1652 | 0.1326 |
0.2203 | 0.9065 | 25200 | 0.1608 | 0.1263 |
0.222 | 0.9173 | 25500 | 0.1788 | 0.1267 |
0.2232 | 0.9281 | 25800 | 0.1614 | 0.1226 |
0.2165 | 0.9389 | 26100 | 0.1746 | 0.1231 |
0.2111 | 0.9497 | 26400 | 0.1793 | 0.1274 |
0.2344 | 0.9605 | 26700 | 0.1645 | 0.1209 |
0.2075 | 0.9713 | 27000 | 0.1609 | 0.1243 |
0.212 | 0.9821 | 27300 | 0.1750 | 0.1294 |
0.1863 | 0.9929 | 27600 | 0.1595 | 0.1179 |
0.1876 | 1.0037 | 27900 | 0.1535 | 0.1150 |
0.1708 | 1.0145 | 28200 | 0.1599 | 0.1159 |
0.1624 | 1.0253 | 28500 | 0.1587 | 0.1172 |
0.1837 | 1.0361 | 28800 | 0.1561 | 0.1160 |
0.1894 | 1.0468 | 29100 | 0.1593 | 0.1079 |
0.1656 | 1.0576 | 29400 | 0.1549 | 0.1115 |
0.1809 | 1.0684 | 29700 | 0.1333 | 0.1093 |
0.1814 | 1.0792 | 30000 | 0.1458 | 0.1058 |
0.159 | 1.0900 | 30300 | 0.1460 | 0.1091 |
0.1707 | 1.1008 | 30600 | 0.1430 | 0.1077 |
0.1728 | 1.1116 | 30900 | 0.1564 | 0.1026 |
0.1583 | 1.1224 | 31200 | 0.1408 | 0.1021 |
0.1751 | 1.1332 | 31500 | 0.1464 | 0.1048 |
0.1686 | 1.1440 | 31800 | 0.1371 | 0.0999 |
0.1495 | 1.1548 | 32100 | 0.1448 | 0.0996 |
0.1647 | 1.1656 | 32400 | 0.1452 | 0.1004 |
0.151 | 1.1764 | 32700 | 0.1376 | 0.0993 |
0.1507 | 1.1871 | 33000 | 0.1308 | 0.0947 |
0.154 | 1.1979 | 33300 | 0.1315 | 0.0975 |
0.1452 | 1.2087 | 33600 | 0.1281 | 0.0951 |
0.1381 | 1.2195 | 33900 | 0.1329 | 0.0936 |
0.146 | 1.2303 | 34200 | 0.1304 | 0.0905 |
0.1697 | 1.2411 | 34500 | 0.1265 | 0.0930 |
0.1479 | 1.2519 | 34800 | 0.1245 | 0.0896 |
0.1583 | 1.2627 | 35100 | 0.1292 | 0.0888 |
0.1246 | 1.2735 | 35400 | 0.1330 | 0.0939 |
0.1537 | 1.2843 | 35700 | 0.1279 | 0.0865 |
0.142 | 1.2951 | 36000 | 0.1221 | 0.0877 |
0.1312 | 1.3059 | 36300 | 0.1222 | 0.0876 |
0.1364 | 1.3167 | 36600 | 0.1235 | 0.0881 |
0.1527 | 1.3274 | 36900 | 0.1241 | 0.0834 |
0.1362 | 1.3382 | 37200 | 0.1177 | 0.0810 |
0.1546 | 1.3490 | 37500 | 0.1212 | 0.0801 |
0.1341 | 1.3598 | 37800 | 0.1231 | 0.0819 |
0.1371 | 1.3706 | 38100 | 0.1196 | 0.0865 |
0.1425 | 1.3814 | 38400 | 0.1126 | 0.0805 |
0.16 | 1.3922 | 38700 | 0.1185 | 0.0783 |
0.1316 | 1.4030 | 39000 | 0.1204 | 0.0794 |
0.1361 | 1.4138 | 39300 | 0.1091 | 0.0777 |
0.1623 | 1.4246 | 39600 | 0.1090 | 0.0776 |
0.1246 | 1.4354 | 39900 | 0.1115 | 0.0779 |
0.1289 | 1.4462 | 40200 | 0.1081 | 0.0748 |
0.1124 | 1.4570 | 40500 | 0.1083 | 0.0745 |
0.1224 | 1.4677 | 40800 | 0.1072 | 0.0755 |
0.1218 | 1.4785 | 41100 | 0.1132 | 0.0739 |
0.121 | 1.4893 | 41400 | 0.1085 | 0.0733 |
0.1058 | 1.5001 | 41700 | 0.1098 | 0.0720 |
0.1304 | 1.5109 | 42000 | 0.1044 | 0.0694 |
0.1309 | 1.5217 | 42300 | 0.1045 | 0.0694 |
0.1418 | 1.5325 | 42600 | 0.0997 | 0.0675 |
0.1213 | 1.5433 | 42900 | 0.1039 | 0.0698 |
0.1253 | 1.5541 | 43200 | 0.1024 | 0.0695 |
0.1119 | 1.5649 | 43500 | 0.1043 | 0.0706 |
0.1132 | 1.5757 | 43800 | 0.1043 | 0.0665 |
0.1161 | 1.5865 | 44100 | 0.1041 | 0.0644 |
0.095 | 1.5973 | 44400 | 0.1014 | 0.0656 |
0.0958 | 1.6080 | 44700 | 0.0972 | 0.0640 |
0.1035 | 1.6188 | 45000 | 0.1003 | 0.0652 |
0.1054 | 1.6296 | 45300 | 0.1043 | 0.0666 |
0.1172 | 1.6404 | 45600 | 0.1002 | 0.0643 |
0.1078 | 1.6512 | 45900 | 0.0996 | 0.0641 |
0.102 | 1.6620 | 46200 | 0.0973 | 0.0619 |
0.108 | 1.6728 | 46500 | 0.0966 | 0.0609 |
0.1058 | 1.6836 | 46800 | 0.0938 | 0.0613 |
0.1134 | 1.6944 | 47100 | 0.0905 | 0.0606 |
0.1102 | 1.7052 | 47400 | 0.0915 | 0.0598 |
0.1342 | 1.7160 | 47700 | 0.0903 | 0.0587 |
0.1039 | 1.7268 | 48000 | 0.0905 | 0.0590 |
0.0993 | 1.7376 | 48300 | 0.0924 | 0.0596 |
0.0965 | 1.7483 | 48600 | 0.0898 | 0.0580 |
0.0911 | 1.7591 | 48900 | 0.0899 | 0.0577 |
0.1023 | 1.7699 | 49200 | 0.0897 | 0.0577 |
0.094 | 1.7807 | 49500 | 0.0875 | 0.0558 |
0.0962 | 1.7915 | 49800 | 0.0880 | 0.0558 |
0.0922 | 1.8023 | 50100 | 0.0858 | 0.0555 |
0.0945 | 1.8131 | 50400 | 0.0866 | 0.0548 |
0.0897 | 1.8239 | 50700 | 0.0840 | 0.0542 |
0.0921 | 1.8347 | 51000 | 0.0876 | 0.0549 |
0.0917 | 1.8455 | 51300 | 0.0853 | 0.0540 |
0.1093 | 1.8563 | 51600 | 0.0844 | 0.0540 |
0.0986 | 1.8671 | 51900 | 0.0831 | 0.0536 |
0.0904 | 1.8778 | 52200 | 0.0831 | 0.0530 |
0.096 | 1.8886 | 52500 | 0.0825 | 0.0531 |
0.0815 | 1.8994 | 52800 | 0.0837 | 0.0533 |
0.0892 | 1.9102 | 53100 | 0.0840 | 0.0533 |
0.0789 | 1.9210 | 53400 | 0.0826 | 0.0524 |
0.0914 | 1.9318 | 53700 | 0.0813 | 0.0520 |
0.1029 | 1.9426 | 54000 | 0.0803 | 0.0513 |
0.0856 | 1.9534 | 54300 | 0.0798 | 0.0511 |
0.0869 | 1.9642 | 54600 | 0.0794 | 0.0507 |
0.101 | 1.9750 | 54900 | 0.0785 | 0.0508 |
0.0917 | 1.9858 | 55200 | 0.0787 | 0.0507 |
0.0875 | 1.9966 | 55500 | 0.0787 | 0.0505 |
Framework versions
- Transformers 4.41.1
- Pytorch 2.1.2+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1
- Downloads last month
- 330
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.
Model tree for cdactvm/w2v-bert-2.0-hindi_new
Base model
facebook/w2v-bert-2.0