Edit model card

chickens-repro-fixed-width-height

This model is a fine-tuned version of facebook/detr-resnet-50 on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 0.1431

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 2
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • num_epochs: 300

Training results

Training Loss Epoch Step Validation Loss
1.193 1.0 227 1.0617
0.8798 2.0 454 0.8939
0.8247 3.0 681 0.7412
0.8244 4.0 908 0.6428
0.6844 5.0 1135 0.5874
0.665 6.0 1362 0.4932
0.6259 7.0 1589 0.7207
0.7219 8.0 1816 0.5707
0.6216 9.0 2043 0.5050
0.5663 10.0 2270 0.4456
0.6155 11.0 2497 0.4638
0.5602 12.0 2724 0.4785
0.5236 13.0 2951 0.4899
0.5997 14.0 3178 0.4580
0.5667 15.0 3405 0.5423
0.5248 16.0 3632 0.5594
0.4935 17.0 3859 0.4853
0.5135 18.0 4086 0.4616
0.5115 19.0 4313 0.5307
0.5216 20.0 4540 0.4372
0.4582 21.0 4767 0.4124
0.4827 22.0 4994 0.4810
0.4737 23.0 5221 0.3864
0.5061 24.0 5448 0.4013
0.4954 25.0 5675 0.4657
0.4858 26.0 5902 0.3667
0.7041 27.0 6129 0.4257
0.4592 28.0 6356 0.3737
0.4504 29.0 6583 0.4293
0.5016 30.0 6810 0.4525
0.4533 31.0 7037 0.4126
0.4947 32.0 7264 0.4203
0.5647 33.0 7491 0.3884
0.5235 34.0 7718 0.4478
0.5368 35.0 7945 0.5169
0.5709 36.0 8172 0.4834
0.6054 37.0 8399 0.5258
0.589 38.0 8626 0.4570
0.6134 39.0 8853 0.4854
0.5028 40.0 9080 0.4299
0.532 41.0 9307 0.4615
0.5078 42.0 9534 0.3819
0.4925 43.0 9761 0.4125
0.5534 44.0 9988 0.3671
0.4713 45.0 10215 0.4092
0.4545 46.0 10442 0.3902
0.4698 47.0 10669 0.4401
0.4704 48.0 10896 0.4350
0.5163 49.0 11123 0.4403
0.4218 50.0 11350 0.3813
0.4748 51.0 11577 0.4023
0.4596 52.0 11804 0.4806
0.4481 53.0 12031 0.3865
0.4375 54.0 12258 0.4089
0.4349 55.0 12485 0.3971
0.4485 56.0 12712 0.3876
0.4465 57.0 12939 0.4128
0.4415 58.0 13166 0.3978
0.429 59.0 13393 0.4067
0.4481 60.0 13620 0.3908
0.4354 61.0 13847 0.3826
0.4784 62.0 14074 0.3713
0.5009 63.0 14301 0.5259
0.452 64.0 14528 0.3822
0.5041 65.0 14755 0.3504
0.4689 66.0 14982 0.4192
0.4493 67.0 15209 0.4303
0.4275 68.0 15436 0.4492
0.4221 69.0 15663 0.3754
0.4527 70.0 15890 0.4307
0.42 71.0 16117 0.3804
0.4278 72.0 16344 0.4012
0.4052 73.0 16571 0.3602
0.3848 74.0 16798 0.3234
0.3991 75.0 17025 0.3507
0.4159 76.0 17252 0.3879
0.4137 77.0 17479 0.3270
0.3947 78.0 17706 0.3435
0.3988 79.0 17933 0.3422
0.4099 80.0 18160 0.3981
0.4032 81.0 18387 0.3655
0.4673 82.0 18614 0.3388
0.4022 83.0 18841 0.3469
0.4083 84.0 19068 0.3364
0.396 85.0 19295 0.3861
0.4473 86.0 19522 0.4011
0.414 87.0 19749 0.3693
0.3862 88.0 19976 0.3205
0.3687 89.0 20203 0.3722
0.3992 90.0 20430 0.3564
0.3818 91.0 20657 0.3528
0.3749 92.0 20884 0.3331
0.4011 93.0 21111 0.4004
0.3934 94.0 21338 0.3044
0.3732 95.0 21565 0.3500
0.3492 96.0 21792 0.3433
0.3617 97.0 22019 0.3327
0.3634 98.0 22246 0.3333
0.3847 99.0 22473 0.3575
0.4043 100.0 22700 0.3728
0.3558 101.0 22927 0.3533
0.3883 102.0 23154 0.3247
0.3706 103.0 23381 0.2962
0.3729 104.0 23608 0.3108
0.3441 105.0 23835 0.3233
0.3603 106.0 24062 0.3462
0.3623 107.0 24289 0.2997
0.3421 108.0 24516 0.3299
0.3637 109.0 24743 0.3484
0.3665 110.0 24970 0.3698
0.3595 111.0 25197 0.3441
0.3417 112.0 25424 0.2829
0.3748 113.0 25651 0.3461
0.4033 114.0 25878 0.3252
0.5025 115.0 26105 0.5051
0.3699 116.0 26332 0.3165
0.3479 117.0 26559 0.3190
0.3518 118.0 26786 0.3047
0.3717 119.0 27013 0.2975
0.35 120.0 27240 0.3046
0.358 121.0 27467 0.2951
0.3441 122.0 27694 0.2870
0.3173 123.0 27921 0.2996
0.3482 124.0 28148 0.2838
0.3037 125.0 28375 0.3163
0.3489 126.0 28602 0.2669
0.3433 127.0 28829 0.2891
0.3372 128.0 29056 0.2884
0.3548 129.0 29283 0.2963
0.338 130.0 29510 0.3278
0.3153 131.0 29737 0.2764
0.3036 132.0 29964 0.2525
0.3294 133.0 30191 0.2831
0.3167 134.0 30418 0.2510
0.3303 135.0 30645 0.2840
0.359 136.0 30872 0.2621
0.3624 137.0 31099 0.2727
0.3107 138.0 31326 0.2560
0.3305 139.0 31553 0.2476
0.3135 140.0 31780 0.3402
0.3068 141.0 32007 0.2872
0.3238 142.0 32234 0.2983
0.317 143.0 32461 0.3080
0.322 144.0 32688 0.2679
0.3066 145.0 32915 0.2643
0.3169 146.0 33142 0.2449
0.2921 147.0 33369 0.2401
0.2836 148.0 33596 0.2810
0.3149 149.0 33823 0.2295
0.2954 150.0 34050 0.2378
0.299 151.0 34277 0.2547
0.3022 152.0 34504 0.2776
0.2851 153.0 34731 0.2969
0.3133 154.0 34958 0.2623
0.2726 155.0 35185 0.2551
0.2812 156.0 35412 0.2454
0.3117 157.0 35639 0.2448
0.279 158.0 35866 0.2197
0.3098 159.0 36093 0.2638
0.2917 160.0 36320 0.2343
0.2799 161.0 36547 0.2151
0.314 162.0 36774 0.2708
0.2561 163.0 37001 0.2209
0.2668 164.0 37228 0.2261
0.2785 165.0 37455 0.2457
0.2601 166.0 37682 0.2084
0.2577 167.0 37909 0.2282
0.274 168.0 38136 0.2628
0.275 169.0 38363 0.2333
0.2626 170.0 38590 0.2373
0.2494 171.0 38817 0.2240
0.2578 172.0 39044 0.2170
0.2431 173.0 39271 0.1988
0.2538 174.0 39498 0.2263
0.2495 175.0 39725 0.2004
0.2412 176.0 39952 0.2224
0.2512 177.0 40179 0.2080
0.2328 178.0 40406 0.2080
0.2351 179.0 40633 0.2310
0.2374 180.0 40860 0.1902
0.2402 181.0 41087 0.2019
0.2454 182.0 41314 0.2188
0.2333 183.0 41541 0.2099
0.2357 184.0 41768 0.2275
0.2392 185.0 41995 0.1843
0.2402 186.0 42222 0.1920
0.2405 187.0 42449 0.1825
0.2326 188.0 42676 0.2053
0.2511 189.0 42903 0.2389
0.2446 190.0 43130 0.1978
0.2258 191.0 43357 0.1838
0.2175 192.0 43584 0.2079
0.2306 193.0 43811 0.1968
0.2201 194.0 44038 0.2071
0.2238 195.0 44265 0.1976
0.2244 196.0 44492 0.2015
0.2191 197.0 44719 0.1924
0.2187 198.0 44946 0.2184
0.2176 199.0 45173 0.2039
0.2078 200.0 45400 0.1831
0.2025 201.0 45627 0.1873
0.2312 202.0 45854 0.2161
0.2195 203.0 46081 0.1859
0.2162 204.0 46308 0.2106
0.2154 205.0 46535 0.1864
0.2042 206.0 46762 0.2006
0.2224 207.0 46989 0.2014
0.2106 208.0 47216 0.2098
0.2021 209.0 47443 0.1884
0.2059 210.0 47670 0.1760
0.209 211.0 47897 0.1585
0.1958 212.0 48124 0.1593
0.2223 213.0 48351 0.1643
0.2103 214.0 48578 0.1682
0.2008 215.0 48805 0.1889
0.2 216.0 49032 0.1834
0.1899 217.0 49259 0.1810
0.2002 218.0 49486 0.1748
0.2013 219.0 49713 0.1842
0.1918 220.0 49940 0.1690
0.2005 221.0 50167 0.1858
0.199 222.0 50394 0.1771
0.1952 223.0 50621 0.1976
0.1997 224.0 50848 0.1886
0.203 225.0 51075 0.1662
0.1943 226.0 51302 0.1867
0.1921 227.0 51529 0.1713
0.1938 228.0 51756 0.1592
0.1977 229.0 51983 0.1518
0.1878 230.0 52210 0.1675
0.2012 231.0 52437 0.1728
0.1934 232.0 52664 0.1668
0.1801 233.0 52891 0.1866
0.1843 234.0 53118 0.1673
0.1936 235.0 53345 0.1735
0.1908 236.0 53572 0.1600
0.1963 237.0 53799 0.1577
0.1944 238.0 54026 0.1709
0.1915 239.0 54253 0.1847
0.1828 240.0 54480 0.1572
0.1847 241.0 54707 0.1561
0.1885 242.0 54934 0.1832
0.1823 243.0 55161 0.1654
0.1768 244.0 55388 0.1863
0.1815 245.0 55615 0.1635
0.1786 246.0 55842 0.1591
0.1875 247.0 56069 0.1576
0.1828 248.0 56296 0.1566
0.1894 249.0 56523 0.1620
0.1766 250.0 56750 0.1594
0.187 251.0 56977 0.1529
0.172 252.0 57204 0.1732
0.178 253.0 57431 0.1538
0.1836 254.0 57658 0.1622
0.1779 255.0 57885 0.1607
0.1703 256.0 58112 0.1602
0.1729 257.0 58339 0.1687
0.1879 258.0 58566 0.1549
0.1697 259.0 58793 0.1542
0.1703 260.0 59020 0.1511
0.1766 261.0 59247 0.1507
0.1692 262.0 59474 0.1582
0.1623 263.0 59701 0.1408
0.1699 264.0 59928 0.1539
0.1803 265.0 60155 0.1528
0.1765 266.0 60382 0.1550
0.1657 267.0 60609 0.1491
0.1693 268.0 60836 0.1455
0.171 269.0 61063 0.1474
0.1749 270.0 61290 0.1515
0.1699 271.0 61517 0.1469
0.1639 272.0 61744 0.1362
0.1723 273.0 61971 0.1439
0.1659 274.0 62198 0.1504
0.1723 275.0 62425 0.1501
0.1762 276.0 62652 0.1506
0.1733 277.0 62879 0.1476
0.1717 278.0 63106 0.1417
0.1712 279.0 63333 0.1380
0.1678 280.0 63560 0.1545
0.1631 281.0 63787 0.1464
0.1692 282.0 64014 0.1437
0.1664 283.0 64241 0.1445
0.1628 284.0 64468 0.1392
0.1739 285.0 64695 0.1399
0.1841 286.0 64922 0.1438
0.1617 287.0 65149 0.1433
0.1601 288.0 65376 0.1437
0.1556 289.0 65603 0.1470
0.1643 290.0 65830 0.1433
0.163 291.0 66057 0.1444
0.162 292.0 66284 0.1426
0.1698 293.0 66511 0.1434
0.1649 294.0 66738 0.1440
0.1662 295.0 66965 0.1435
0.162 296.0 67192 0.1437
0.1633 297.0 67419 0.1434
0.1771 298.0 67646 0.1432
0.1665 299.0 67873 0.1431
0.1648 300.0 68100 0.1431

Framework versions

  • Transformers 4.45.1
  • Pytorch 2.4.1+cu121
  • Datasets 2.19.2
  • Tokenizers 0.20.0
Downloads last month
58
Safetensors
Model size
41.6M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for joe611/chickens-repro-fixed-width-height

Finetuned
(446)
this model