1 00:00:20,650 --> 00:00:23,110 بسم الله الرحمن الرحيم، احنا اليوم إن شاء الله بدنا 2 00:00:23,110 --> 00:00:26,450 نكمل الموضوع اللي فتحناه قبل هيك في المحاضرات 3 00:00:26,450 --> 00:00:32,610 الماضية، اللي هو الـ artificial neural networks الـ 4 00:00:32,610 --> 00:00:35,670 supervised learning باستخدام الـ artificial neural 5 00:00:35,670 --> 00:00:42,570 networks. كنا في المحاضرة الماضية حكينا عن اللي هو 6 00:00:42,570 --> 00:00:48,290 الـ Perceptron، وشوفنا آلية عمله، وآلية 7 00:00:48,290 --> 00:00:53,090 التعلم اللي هي مقصودة بالتعديل الوزني، وبعدين 8 00:00:53,090 --> 00:00:57,270 كمان أيضًا طلعنا على الـ multi-layered networks الـ 9 00:00:57,270 --> 00:01:00,270 multi-layered networks اللي هي عبارة عن شبكة من الـ 10 00:01:00,270 --> 00:01:05,850 perceptrons. الشبكة هذه مُهيكلة على أساس layers، والـ 11 00:01:05,850 --> 00:01:08,890 layers، كل layer فيها مجموعة من الـ perceptrons 12 00:01:08,890 --> 00:01:13,090 بتغذي المجموعة اللي بعدها، أو الـ layer اللي بعدها، 13 00:01:14,080 --> 00:01:18,840 وشوفنا آلية التعلم في الـ multilayer networks، 14 00:01:18,840 --> 00:01:23,080 صح، آلية التعلم المُتّبعة بها مرة أخرى، اللي هي آلية 15 00:01:23,080 --> 00:01:27,420 تعديل الأوزان، وشوفنا كيف بتختلف آلية تعديل الأوزان 16 00:01:27,420 --> 00:01:36,000 في الـ output layer عنّها في الـ hidden layer، صح الآن؟ 17 00:01:36,000 --> 00:01:40,290 احنا بدنا نلقي نظرة أخيرة على الـ multilayer 18 00:01:40,290 --> 00:01:44,510 networks، بعدين بنحكي في جزئية صغيرة، اللي هي الـ 19 00:01:44,510 --> 00:01:48,610 accelerating، اللي هي النقطة هذه، ماضحة النقطة هذه، 20 00:01:48,610 --> 00:01:53,170 اللي هي accelerated learning، المقصود بها تسريع 21 00:01:53,170 --> 00:01:56,710 عملية التعلم. عملية التعلم احنا فاهمين إنها بتحصل 22 00:01:56,710 --> 00:02:04,390 على شكل ايش؟ iterations. iterations، مظبوط، وسمينا كل 23 00:02:04,390 --> 00:02:08,630 مجموعة من الـ iterations سمينها epoch، صح؟ الـ Epoch هو 24 00:02:08,630 --> 00:02:14,970 دفعة، أو short من الـ iterations. عملية التسريع هو 25 00:02:14,970 --> 00:02:21,870 تقليل عدد الـ iterations. بدل من أن الـ network تأخذ 26 00:02:21,870 --> 00:02:29,940 400 دورة، 400 iterations قبل أن تستقر الأوزان، لما 27 00:02:29,940 --> 00:02:33,020 بنقول احنا بدنا نسرّع عملية التعلم، معناه ذلك 28 00:02:33,020 --> 00:02:36,240 الـ 400 هدول بدنا نختصرهم، أو نُقلّلهم إلى 300، 29 00:02:36,240 --> 00:02:42,100 إلى 200، إلى 100 ربما، بدون أن نُنقص من دقة 30 00:02:42,100 --> 00:02:48,290 التعلم. هذه النقطة اللي هي المقصود بها اللي هو 31 00:02:48,290 --> 00:02:52,730 accelerated learning، أو ممكن نقول accelerating الـ 32 00:02:52,730 --> 00:02:55,570 learning، يعني تسريع التعلم في الـ multi neural 33 00:02:55,570 --> 00:02:59,390 networks. بعد ما نخلص النقطة هذه إن شاء الله، بنتطلع 34 00:02:59,390 --> 00:03:03,250 على الـ Hopfield network والـ BAM، اللي هي 35 00:03:03,250 --> 00:03:07,010 bidirectional associative memories. هدول نوعين من 36 00:03:07,010 --> 00:03:13,420 الـ artificial neural networks اللي بينطوروا تحت إطار 37 00:03:13,420 --> 00:03:18,200 اللي هو supervised learning. طيب، إيش قلنا بدنا 38 00:03:18,200 --> 00:03:20,640 نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على الـ 39 00:03:20,640 --> 00:03:23,920 multilayer neural networks اللي كنا حكينا فيها من 40 00:03:23,920 --> 00:03:28,400 قبل. بدنا نرجع على طريقة الـ slide اللي فيها الـ 41 00:03:28,400 --> 00:03:34,040 example اللي تبعه، تتذكروا تبع إيش؟ تبع تدريب الـ 42 00:03:34,040 --> 00:03:41,100 network على اللي هو الـ XOR، الـ XOR gate أو الـ XOR 43 00:03:41,100 --> 00:03:44,900 function، ذاكرين؟ 44 00:03:44,900 --> 00:03:49,700 هذا المثال. اما كنا بنحكي إنه هاي الـ neural network 45 00:03:49,700 --> 00:03:54,920 في عندنا الثلاث nodes، هدول node رقم ثلاثة ورقم 46 00:03:54,920 --> 00:03:58,020 أربعة، هدول تابعين لإيش؟ للـ layer، الـ hidden layer، 47 00:03:58,020 --> 00:04:03,460 مظبوط، الـ hidden layer، صح؟ والـ output layer إيش 48 00:04:03,460 --> 00:04:07,660 فيها؟ فيها node واحدة، اللي هي node number five، صح؟ 49 00:04:07,660 --> 00:04:13,200 لأن الـ input بيدخل بـ X1 و X2 على node number one و 50 00:04:13,200 --> 00:04:16,700 node number two. ملاحظين هدول الـ two nodes شكلهم 51 00:04:16,700 --> 00:04:22,780 مربع، لتمييزهم عن من عن الـ nodes الأخرى. مميزين بإيش؟ 52 00:04:22,780 --> 00:04:26,300 إيش الفرق ما بينهم؟ إن هدول ما بيعملوش أي 53 00:04:27,210 --> 00:04:31,330 calculations، ما بيعملوش أي computation، صح؟ مجرد اللي 54 00:04:31,330 --> 00:04:35,890 بيدخل عليهم بيتوزع على مين؟ على اللي بعدهم، okay؟ يبقى احنا 55 00:04:35,890 --> 00:04:39,730 عمليًا في المثال هذا، يوم ما بدنا نيجي نحسب ونعدّ 56 00:04:39,730 --> 00:04:42,990 الأوزان، ونعد الأوزان، بس ثلاثة وأربعة وخمسة، 57 00:04:42,990 --> 00:04:47,470 مظبوط، بنبدأ من مين؟ من الخمسة في الأول بالظبط، لأن 58 00:04:47,470 --> 00:04:52,080 الخمسة هي اللي عندها desired output، وهي اللي بتقدر 59 00:04:52,080 --> 00:04:55,460 تعرف الـ error أو تحسب الـ error، وبعدها بتطلع الـ 60 00:04:55,460 --> 00:04:59,420 error، بتعدّل أوزانها، وبعدها بترحل الـ error 61 00:04:59,420 --> 00:05:02,820 gradient إلى مين؟ إلى ثلاثة وأربعة، الـ error 62 00:05:02,820 --> 00:05:07,900 gradient اللي ذكرناه هو small delta، بترحل إلى ثلاثة 63 00:05:07,900 --> 00:05:10,740 وإلى أربعة، عشان كل واحدة منهم، ثلاثة وأربعة، تحسب 64 00:05:10,740 --> 00:05:15,230 الـ error تبعها، الـ error gradient تبعها، يعني عشان 65 00:05:15,230 --> 00:05:18,730 تعدّل أوزانها بناء عليه. هذا الكلام هو total طبعًا، 66 00:05:18,730 --> 00:05:22,710 هنا في الـ slide هذه، بيعطيك الـ initial values تبع 67 00:05:22,710 --> 00:05:30,390 الـ إيش؟ الأوزان، 68 00:05:30,390 --> 00:05:34,230 والـ threshold، 69 00:05:34,230 --> 00:05:41,980 that theta، صح؟ مظبوط؟ بعد ذلك، هنا بيبدأ الحساب. أول 70 00:05:41,980 --> 00:05:46,260 شيء، بيحسب الـ Y3، الـ output اللي بده يطلع من Y3، 71 00:05:46,260 --> 00:05:53,100 مظبوط، بس احنا قلنا أول حاجة، بدنا نعدّل الأوزان 72 00:05:53,100 --> 00:05:59,840 فيها على Y5. طب ليش بدأنا في Y3 و Y4؟ لأن Y5 73 00:06:01,600 --> 00:06:05,000 بتعرف كيف تحسب الـ output تبعها، لازم يجيها input من 74 00:06:05,000 --> 00:06:09,120 وين؟ بتجيها الـ input من Y3 و Y4. يبقى لازم أحسب Y3 و 75 00:06:09,120 --> 00:06:13,800 Y4، ليش؟ بدهم يطلعوا عشان نُسَلّم لـ Y5، عشان Y5 تحسب 76 00:06:13,800 --> 00:06:16,580 الـ output تبعها. تبعها، دلوقت، لأن شوف إيش فيه error، 77 00:06:16,580 --> 00:06:22,180 ويتراح تاني، يعني احنا forward propagation 78 00:06:22,180 --> 00:06:26,140 of data، و backward propagation of error 79 00:06:26,140 --> 00:06:31,070 information، صح؟ okay، هي الآن، بعد ما طلعنا ... 80 00:06:31,070 --> 00:06:34,050 من حسبنا، وطبعًا حسبنا الـ activation 81 00:06:34,050 --> 00:06:37,870 function، استخدمنا اللي هي الـ sigmoid، الـ sigmoid، 82 00:06:37,870 --> 00:06:41,270 طبعًا، يوم ما يكون في عندك مثال أو امتحان أو كده، الـ 83 00:06:41,270 --> 00:06:44,830 formula حتبدو مألوفة لك أنت، بس مجرد إيش؟ بتاخد 84 00:06:44,830 --> 00:06:48,110 الأرقام وبتطلع الـ output. الـ output، لأن الـ sigmoid 85 00:06:48,110 --> 00:06:51,330 بتطلع continuous values، يعني إيش؟ يعني أرقام عشرية، 86 00:06:51,330 --> 00:06:58,750 مش binary زي مين؟ زي الـ step function، و ليش؟ بالـ pulse 87 00:06:58,750 --> 00:07:04,010 function، صح؟ okay، فَالآن هذه الـ continuous values، 88 00:07:04,010 --> 00:07:07,870 أو الـ real values، أو الـ float values، بتدخل على مين؟ 89 00:07:07,870 --> 00:07:12,350 على Y5، تنضرب في الأوزان تبعها، وتُؤخذ مع الـ 90 00:07:12,350 --> 00:07:16,750 threshold عشان تطلع الـ output تبع Y5. من هنا الآن، 91 00:07:16,750 --> 00:07:20,610 نبدأ نشوف ليش الـ error، الـ error اللي أنا بحسبه هو 92 00:07:20,610 --> 00:07:24,610 عبارة عن ببساطة الـ difference ما بين الـ desired، الـ 93 00:07:24,610 --> 00:07:32,080 desired، لما يكون عندي أنا الـ X واحد، X واحد، 94 00:07:32,080 --> 00:07:36,240 أنا بقصد هنا X واحد و X اثنين، الاثنين الـ input، الـ 95 00:07:36,240 --> 00:07:41,340 value تبعهم one one، لازم الـ XOR function 96 00:07:41,340 --> 00:07:42,120 تعطيني إيش؟ 97 00:07:50,560 --> 00:07:54,460 Y5 يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا 98 00:07:54,460 --> 00:07:56,580 في الـ calculation هذا، يفترض أن يكون zero، بس ما هو 99 00:07:56,580 --> 00:07:56,920 اللي بيطلع معنا هنا في الـ calculation هذا، يفترض أن 100 00:07:56,920 --> 00:07:56,960 يكون zero، بس ما هو اللي بيطلع معنا هنا في الـ 101 00:07:56,960 --> 00:08:03,540 calculation هذا، يفترض أن يكون zero، بس 102 00:08:03,540 --> 00:08:05,000 ما هو اللي بيطلع معنا هنا في الـ calculation هذا، 103 00:08:05,000 --> 00:08:06,320 يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا في 104 00:08:07,180 --> 00:08:09,700 الـ small delta تبع هذه الخمسة، اللي هي إيش اسمها؟ 105 00:08:09,700 --> 00:08:13,220 الـ error gradient. شوف أنا وين بقصد هنا الـ error 106 00:08:13,220 --> 00:08:18,200 gradient، إذا ذكرتوا هذا المصطلح، إن هو الـ small 107 00:08:18,200 --> 00:08:23,070 delta، الـ error gradient هذا لما بنحسبه، بعد هيك، على 108 00:08:23,070 --> 00:08:27,630 أساسه، بتتعدّل الأوزان، الأوزان تبعون الـ inputs اللي 109 00:08:27,630 --> 00:08:33,890 داخلة على Y خمسة، صح؟ من هم هدول الأوزان؟ W ثلاثة 110 00:08:33,890 --> 00:08:38,190 خمسة، و W أربعة خمسة. ليش بسمّيهم هيك؟ لأن واحد منهم 111 00:08:38,190 --> 00:08:42,670 جاي من ثلاثة إلى خمسة، والثاني جاي من أربعة إلى 112 00:08:42,670 --> 00:08:47,470 خمسة، أو الأصح إن احنا نقول واحد منهم هو وزن الـ 113 00:08:47,470 --> 00:08:51,610 input اللي جاي من ثلاثة إلى خمسة، والثاني هو وزن الـ 114 00:08:51,610 --> 00:08:56,910 input اللي جاي من أربعة إلى خمسة، صح؟ طبعًا. فأول شيء 115 00:08:56,910 --> 00:09:00,370 عشان نعدّل الأوزان، نحسب الـ delta تبع الوزن، مقدار 116 00:09:00,370 --> 00:09:08,390 التغيير، بعدين بنضيفه على الـ current، أو الـ weight، 117 00:09:08,390 --> 00:09:13,250 الوزن الحالي، عشان يطلع معنا وزن جديد. نفس الشيء 118 00:09:13,250 --> 00:09:18,000 بنعمله لمين؟ للـ Theta، للـ Threshold. لاحظوا أن 119 00:09:18,000 --> 00:09:20,900 عملية تعديل الأوزان ببساطة شديدة، يعني الـ Delta، 120 00:09:20,900 --> 00:09:22,880 بيصير عبارة عن الـ Alpha اللي هو الـ learning rate، 121 00:09:22,880 --> 00:09:28,920 مضروب في قيمة الـ input اللي بيخش عبر هذا 122 00:09:28,920 --> 00:09:33,740 الوزن، مضروب في الـ Delta، small Delta اللي هي الـ 123 00:09:33,740 --> 00:09:38,840 Delta 5. فهي Delta 5 موجودة في الثلاث حسابات، 124 00:09:40,110 --> 00:09:44,130 طيب، هذا الكلام إيش خلّصنا فيه؟ هذا الكلام بس لحساب 125 00:09:44,130 --> 00:09:48,210 الأوزان تبع input اللي داخلة على مين؟ على 126 00:09:48,210 --> 00:09:52,450 Y5. لازم نعيد نفس الشيء للـ inputs اللي داخلة على 127 00:09:52,450 --> 00:10:01,630 Y3 و Y4، صح؟ okay، هذا الكلام نفس القوانين، بس طبعًا 128 00:10:01,630 --> 00:10:05,270 لازم في الأول، كل واحدة من Y3 و Y5 تحسب الـ error 129 00:10:05,270 --> 00:10:09,520 gradient تبعها، اللي هو الـ small delta تبعها، وبعدين 130 00:10:09,520 --> 00:10:15,220 عليه، small delta بتدخل 131 00:10:15,220 --> 00:10:19,040 في حساب الأوزان اللي رايحة على ثلاثة، وبعدين small 132 00:10:19,040 --> 00:10:21,860 delta تبع أربعة بتدخل في حساب الأوزان اللي رايحة 133 00:10:21,860 --> 00:10:29,800 على أربعة. أنا الآن بدل ما إني طبعًا هنا بعد هيك، 134 00:10:29,800 --> 00:10:35,020 الأوزان، اللي هو W واحد ثلاثة، W واحد أربعة، 135 00:10:35,020 --> 00:10:37,840 W اثنين ثلاثة، W اثنين أربعة، W ثلاثة خمسة، 136 00:10:37,840 --> 00:10:44,500 W ثلاثة أربعة. okay، بدل أنا الآن نمُرّ بهذا الحساب 137 00:10:44,500 --> 00:10:48,900 خطوة خطوة، لأ، أنا بدي أجيب وأقول لك الآن، اعتبر أنت 138 00:10:48,900 --> 00:10:53,340 بدك تكمل المثال هذا، الـ iteration اللي بعد هذه، الـ 139 00:10:53,340 --> 00:10:56,880 iteration الأولى، ولا لأ؟ لأن هذه الـ iteration إنبنت 140 00:10:56,880 --> 00:11:01,760 على الـ initial، الـ initial values تبع الأوزان، 141 00:11:01,760 --> 00:11:07,610 مظبوط. أنت الآن خذ هذا، وخذ الـ input اللي بعده، مين؟ 142 00:11:07,610 --> 00:11:09,750 الـ input اللي بعده، إذا كان الـ input الأولاني كان 143 00:11:09,750 --> 00:11:17,430 one one، خذ zero one، X1 بـ zero و X2 بـ one، وعيّد 144 00:11:17,430 --> 00:11:25,890 الكرة من جديد، بالأوزان اللي هذه اللي نتجت من نهاية 145 00:11:25,890 --> 00:11:28,390 الـ iteration الأولى. أنت الآن بدك تحسب الـ iteration 146 00:11:28,390 --> 00:11:33,310 الثانية، بتقدر تعمل هذا الكلام ولا لا؟ بتقدر، إذا 147 00:11:33,310 --> 00:11:37,740 أعطيناك homework إن شاء الله بتقدر. لأ، فخلاص هي الآن 148 00:11:37,740 --> 00:11:42,260 homework. هي الآن homework مطلوب منك إيش تسوي؟ تعيد 149 00:11:42,260 --> 00:11:47,140 الكلام ده كله، للـ iteration number two، عشان تطلع 150 00:11:47,140 --> 00:11:52,140 إيش في الآخر؟ الأوزان. يعني في الآخر بدك تطلع صفحة 151 00:11:52,140 --> 00:11:59,710 زي هيك، فيها أوزان جديدة، اللي بدها تكون عندك اللي هو 152 00:11:59,710 --> 00:12:02,110 الـ iteration الثاني، في نهاية الـ iteration الثاني، 153 00:12:02,110 --> 00:12:05,870 إيش حتكون قيمة الأوزان الجديدة، والثresholds 154 00:12:05,870 --> 00:12:11,430 الجديدة، okay؟ طيب، هيك بنكون احنا ألقينا النظر الأخير 155 00:12:11,430 --> 00:12:16,470 على عملية الـ back propagation learning. واضح ليش 156 00:12:16,470 --> 00:12:20,150 اسمها back propagation؟ لأن احنا بنرجع الـ error 157 00:12:20,150 --> 00:12:25,100 لَوراء على الـ layers، من الـ output إلى الـ hidden، الـ 158 00:12:25,100 --> 00:12:28,600 hidden، طبعًا ممكن تبقى layer واحدة، أو أكتر من، ممكن 159 00:12:28,600 --> 00:12:33,880 two hidden layers، ماشي؟ 160 00:12:33,880 --> 00:12:37,240 هاد الآن احنا بدنا نحكي في الـ acceleration، كيف 161 00:12:37,240 --> 00:12:44,540 يمكن تسريع، التسريع الـ learning هذا، الـ curve لو 162 00:12:44,540 --> 00:12:50,300 لاحظت عليه، إيش بيمثل؟ علاقة إيش بإيش؟ هنا epoch، بقول 163 00:12:50,300 --> 00:12:53,940 iterations، لأن الـ epoch الواحد هي مجموعة iterations، 164 00:12:53,940 --> 00:12:57,300 فأنا هنا من zero، عشان 50، 100، 150، 200، 165 00:12:57,300 --> 00:13:02,580 أقصد بها إيش؟ 200 iterations، 150 166 00:13:02,580 --> 00:13:07,980 iterations. كل ما بزيد عدد الـ iterations يفترض أن 167 00:13:07,980 --> 00:13:15,020 الـ error إيش بيصير فيه؟ بيقل، بيتناقص. احنا الآن الـ 168 00:13:15,020 --> 00:13:18,490 error، أحيانًا الـ network بتبقى الـ output layer 169 00:13:18,490 --> 00:13:23,890 تبعها فيها node واحدة، فهو error واحد، مظبوط؟ 170 00:13:23,890 --> 00:13:28,410 أحيانًا بيبقى الـ layer الأخيرة بيبقى فيها عدد من 171 00:13:29,090 --> 00:13:32,310 nodes، وبالتالي الـ error، في عندي error للأولى، error 172 00:13:32, 223 00:17:32,980 --> 00:17:39,640 foundation لِ.. لِ.. لِيش؟ 224 00:17:41,620 --> 00:17:46,340 لِـ course يكون في الجزء النظري أكثر فإحنا الآن 225 00:17:46,340 --> 00:17:49,560 بدنا ننتقل على هذه هي الطريقة الأولى، هذه الطريقة 226 00:17:49,560 --> 00:17:53,880 الأولى لتسريع عملية التعلم، طريقة ثانية، اللي هو 227 00:17:53,880 --> 00:17:57,300 إحنا نستخدم حاجة اسمها momentum term، انظر على 228 00:17:57,300 --> 00:18:01,860 المعادلة هذه، انظر على الشق هذا، هل الشق هذا شفناه 229 00:18:01,860 --> 00:18:05,600 قبل هيك؟ أول شيء، أيش اللي على اليسار؟ اللي يساوي 230 00:18:05,600 --> 00:18:12,400 اللي هو الـ delta W، اللي هو ايش؟ فرق الوزن بالعادة 231 00:18:12,400 --> 00:18:16,380 احنا بنعرف أن فرق الوزن هو في المحصلة هيك، بس مجرد 232 00:18:16,380 --> 00:18:21,280 الـ alpha مضروبة في الـ input مضروبة في small delta 233 00:18:21,280 --> 00:18:25,700 لِأذكركم في هذا الكلام، هيتوا، ارجع هنا ورا شوية 234 00:18:25,700 --> 00:18:30,980 ارجع هنا ورا شوية، هيتوا، هي delta صح؟ عبارة عن ايش؟ 235 00:18:30,980 --> 00:18:35,450 alpha مضروبة في XX اللي هي الـ input مضروبة في 236 00:18:35,450 --> 00:18:38,410 دلتا دلتا اللي هي error gradient تبع الـ node نفسها 237 00:18:38,410 --> 00:18:43,530 اللي نحسب لها تلاتة أو زمن الداخلة عليها من واحد و 238 00:18:43,530 --> 00:18:53,830 من اتنين، مبدئياً للي مش حافظ، تعديل الوزن delta w هي 239 00:18:53,830 --> 00:18:56,690 عبارة عن ببساطة learning rate 240 00:18:59,110 --> 00:19:02,870 مضروب في الـ input اللي داخل على الـ node من هذا 241 00:19:02,870 --> 00:19:07,810 الوزن مضروب في الـ gradient، طيب ايش الاستخدام؟ 242 00:19:07,810 --> 00:19:11,710 الاستخدام هذا، الـ band هذا أو هذا الـ term هذا، الـ 243 00:19:11,710 --> 00:19:14,790 term اللي هو الـ momentum term، momentum يعني الدفع 244 00:19:14,790 --> 00:19:18,450 بيعطي الدفع لعملية التعلم، هو ببساطة شديدة عبارة 245 00:19:18,450 --> 00:19:22,970 عن beta، هي عبارة عن constant صغير ما بين الـ zero 246 00:19:22,970 --> 00:19:28,630 والواحد، مضروب في ايش؟ مضروب في ايش؟ في الـ delta 247 00:19:28,630 --> 00:19:33,190 point، يعني بدنا الآن الـ network تتذكر الـ delta 248 00:19:33,190 --> 00:19:39,050 السابق، احنا نحسب الـ delta تبع P و بنقول أنه بدنا 249 00:19:39,050 --> 00:19:44,210 الـ delta تبع P ناقص واحد، يعني ايش؟ الـ delta السابق 250 00:19:44,210 --> 00:19:50,310 مش الوزن السابق، مش W، لأ، delta W، بدنا ناخده هذا 251 00:19:51,510 --> 00:19:57,390 نحتفظ فيه للدورة اللاحقة، عشان نضربه في مين؟ في الـ 252 00:19:57,390 --> 00:20:04,590 beta، هذا الكلام بشكل دفع لمين؟ لعملية التعلم، وهذا 253 00:20:04,590 --> 00:20:11,070 الـ beta قيمة تتراوح من zero لواحد، عادة بتبدأ قريبة 254 00:20:11,070 --> 00:20:17,690 من الواحد، قريبة من الواحد، يعني 0.95 مثلاً، فهذا اللي 255 00:20:17,690 --> 00:20:18,150 هو الآن 256 00:20:27,380 --> 00:20:32,280 two methods أو two measures أو two steps أو two 257 00:20:32,280 --> 00:20:41,980 techniques، ليش؟ for accelerating، أول 258 00:20:41,980 --> 00:20:42,920 واحد، ايش كانت؟ 259 00:21:01,740 --> 00:21:06,060 الثاني، استخدام ايش؟ 260 00:21:06,060 --> 00:21:11,540 momentum constant term، لأ، الـ constant هو جزء من الـ 261 00:21:11,540 --> 00:21:15,100 term، هذا هو كله عبارة عن الـ momentum term، تتكون 262 00:21:15,100 --> 00:21:20,260 من حاجتين مضروبات في بعض، اللي هم الـ momentum 263 00:21:20,260 --> 00:21:26,540 constant اللي هي beta مضروبة في الـ W تبعت الـ 264 00:21:26,540 --> 00:21:34,100 iteration السابقة، هذا الـ term بينجمع على الـ term 265 00:21:34,100 --> 00:21:40,240 الأصلي تبع تعديل الأوزان، اللي هو الـ alpha مضروبة 266 00:21:40,240 --> 00:21:48,820 في الـ input مضروبة في الـ error gradient، error 267 00:21:48,820 --> 00:21:54,780 gradient اللي هي small delta، تمام؟ 268 00:21:54,780 --> 00:21:57,800 ايش 269 00:21:57,800 --> 00:22:02,890 غير هذا؟ هدول طريقتين، اللي قلنا ايش؟ أو أسلوبين لـ 270 00:22:02,890 --> 00:22:10,710 accelerating learning، غير هيك، هذا المثال نفس 271 00:22:10,710 --> 00:22:20,270 المثال اللي قبل هيك، بوريك كيف الـ 272 00:22:20,270 --> 00:22:27,770 learning rate هنا ثابت، ما تغيرش، ثابت، و الـ error 273 00:22:27,770 --> 00:22:37,800 بينزل، الـ error بينزل، صار بدل ما أخدت بدل 274 00:22:37,800 --> 00:22:44,280 ما تاخد 200 iteration عشان يقترب الـ error من الـ 275 00:22:44,280 --> 00:22:52,340 zero، أخدت قديش؟ 126 276 00:22:52,340 --> 00:22:57,120 epoch أو iteration، مش مشكلة، المهم القصد أنه انضغط 277 00:22:57,120 --> 00:23:03,340 الأمر من 200 إلى 126، هذا باستخدام الـ momentum term 278 00:23:03,340 --> 00:23:11,320 لما أضيف الـ momentum term على تصميم formula تعديل 279 00:23:11,320 --> 00:23:18,920 الوزن، صار اختصر أو قلّ الوجد إلى 126 بدل 200 280 00:23:18,920 --> 00:23:25,340 إذن، الآن، إضافة إلى هذول الـ two techniques، رقم 281 00:23:25,340 --> 00:23:27,360 تلاتة، اللي هو الـ heuristics 282 00:23:33,520 --> 00:23:37,660 heuristics، هذول فيهم any tools rule بتقول إنه إذا 283 00:23:37,660 --> 00:23:43,780 كان أنا قاعد بأجمع اللي هو ايش؟ الـ sum of square 284 00:23:43,780 --> 00:23:46,940 errors، ايش هو الـ sum of square errors؟ بتذكرها لو 285 00:23:46,940 --> 00:23:51,040 لسه كنا نحكي، اللي هو بجمع الـ errors تبع كل الـ 286 00:23:51,040 --> 00:23:55,900 nodes و بربعها، أولا بأخذها، بربعها، بعدين بجمع 287 00:23:55,900 --> 00:24:01,900 مربعاتها، إذا من epoch لـ epoch، الـ sum of square errors 288 00:24:01,900 --> 00:24:12,120 هذا sum of square errors باستمرار 289 00:24:12,120 --> 00:24:20,060 هذا الـ sum من 290 00:24:20,060 --> 00:24:26,520 واحد للي بعده، إما في ازدياد، يعني في الأول كان الـ 291 00:24:26,520 --> 00:24:30,780 sum نقول مثلاً تلاتة، بعدين صار أربعة، بعدين صار خمسة، 292 00:24:30,780 --> 00:24:31,280 بعدين ستة، 293 00:24:35,780 --> 00:24:45,980 بيزيد، أو الـ axis أنه في نزول، يعني الـ sum تبع هذا 294 00:24:45,980 --> 00:24:49,400 الـ epoch أقل من اللي قبله، واللي بعده أقل، واللي 295 00:24:49,400 --> 00:24:53,220 بعده أقل، جاي بتنقص، هذا الكلام مش معناته، معناته لما 296 00:24:53,220 --> 00:24:58,800 أنا بقى آخذ الفرق، من تلاتة ناقص أربعة بيطلع ناقص 297 00:24:58,800 --> 00:25:02,220 واحد، أربعة ناقص خمسة بيطلع ناقص واحد، دائماً.. دائماً 298 00:25:02,220 --> 00:25:09,020 ..دائماً الفرق.. دائماً الفرق إشارته بالسالب، وهنا 299 00:25:09,020 --> 00:25:13,620 نفس الشيء برضه، سواء كان هو صعوداً أو هبوطاً، لما أنا 300 00:25:13,620 --> 00:25:17,500 أجي أقول مثلاً هذه عشرة، واللي بعدها تسعة، واللي بعدها 301 00:25:17,500 --> 00:25:21,800 ثمانية، عشرة ناقص تسعة واحد، تسعة ناقص ثمانية واحد، 302 00:25:21,800 --> 00:25:29,120 فالفرق دائماً إشارته موجبة، هنا دائماً إشارته السالبة، 303 00:25:31,690 --> 00:25:37,390 إذا دائماً هيك.. إذا دائماً.. إذا الـ change of the 304 00:25:37,390 --> 00:25:42,510 sum of square.. change.. الـ change.. التغير 305 00:25:42,510 --> 00:25:45,510 يعني هنا من عشرة إلى تسعة، وتسعة، إذا دائماً هذا الـ 306 00:25:45,510 --> 00:25:49,130 change.. كيف أنا بأحسب الـ change؟ بأخذ الفرق، إذا 307 00:25:49,130 --> 00:25:54,310 دائماً هذا الفرق بحافظ على نفس الـ sign، نفس الإشارة، 308 00:25:54,310 --> 00:25:58,190 إما دائماً موجبة أو دائماً سالبة، يبقى أنا في عندي 309 00:25:58,190 --> 00:26:03,250 اضطراد، أنا في عندي حاجة اسمها الـ.. الـ.. الـ.. الـ 310 00:26:03,250 --> 00:26:05,830 ..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. 311 00:26:05,830 --> 00:26:06,070 الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ 312 00:26:06,070 --> 00:26:06,150 ..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. 313 00:26:06,150 --> 00:26:06,370 الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ 314 00:26:06,370 --> 00:26:06,690 ..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. 315 00:26:06,690 --> 00:26:07,830 الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ 316 00:26:07,830 --> 00:26:07,950 ..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. 317 00:26:07,950 --> 00:26:11,010 الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. 318 00:26:11,010 --> 00:26:15,430 ..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. 319 00:26:15,430 --> 00:26:20,430 الـ.. 320 00:26:20,430 --> 00:26:26,230 الـ.. في الـ sum of square errors، يبقى 321 00:26:26,230 --> 00:26:33,570 أنا المفروض أسرّع، أزيد الـ alpha، فإذا كان اختصر هذا 322 00:26:33,570 --> 00:26:39,770 الـ linguistic كالتالي: إذا كانت الـ sign of sum of 323 00:26:39,770 --> 00:26:42,570 square errors لا يوجد الاختصار 324 00:26:51,530 --> 00:26:54,230 وبعدها كلمة stable، ايش يعني stable؟ يعني ما فيش 325 00:26:54,230 --> 00:26:59,310 فيها تذبذب، مش مرة زائد ومرة ناقص، يعني مش أنه مرة 326 00:26:59,310 --> 00:27:05,390 تلاقي هيك، هنا الفرق هذا ناقص هذا سالب، سالب، بعد هيك 327 00:27:05,390 --> 00:27:09,710 الفرق صار موجب، مظبوط؟ هنا ما فيش فرق، هنا صار سالب 328 00:27:09,710 --> 00:27:13,110 سالب، سالب، هنا موجب، هذا تذبذب في ايش؟ في الـ sign 329 00:27:13,110 --> 00:27:21,150 إذا كان الـ sign is stable، فايش بسوي؟ increase alpha، 330 00:27:22,950 --> 00:27:25,930 ألفا اللي هي learning rate، وشفتوها في واحدة من 331 00:27:25,930 --> 00:27:30,210 الأمثلة كانت 0.1، increase يعني بخليها 0.2 مثلاً، 332 00:27:30,210 --> 00:27:36,270 بخليها 0.3 أو بقيت وأقول بدي أضربها، دائماً بزيدها 333 00:27:36,270 --> 00:27:43,910 بـ 5%، يعني 0.1 بدي أضيف 0.105، يعني بخلي، بمختصر أن 334 00:27:43,910 --> 00:27:51,070 ألفا تساوي ألفا ضرب 1.05، هذا معناته بزيدها بـ 5%، 335 00:27:52,090 --> 00:27:57,250 ممكن أقول لأ، ده زي ده 15%، ممكن أقول ده زي ده 25%، 336 00:27:57,250 --> 00:28:02,350 المهم أنا بقى بأثبت، نسبة زيادة، امتى بزيد، امتى 337 00:28:02,350 --> 00:28:05,290 بقى بضبط، ده الكلام لما قال لي أنه الـ sign ثابت، 338 00:28:05,290 --> 00:28:12,790 العكس من ذلك، إذا الـ algebraic sign of الـ change الـ 339 00:28:12,790 --> 00:28:16,950 change اللي هو يعني مقصود يتغير في الـ alternates، 340 00:28:16,950 --> 00:28:21,190 session alternates، يتذبذب، مرة آخر مرة موجبة، مرة 341 00:28:21,190 --> 00:28:25,760 سالبة، اللي هو معناه ذلك.. معناه ذلك في عندي الـ.. 342 00:28:25,760 --> 00:28:31,620 الـ network مرة بتقترب.. مرة بتقترب وبتقلل الـ error 343 00:28:31,620 --> 00:28:36,780 و مرة بتبعد، فجأة غيرت الأوزان بشكل كبير، صار يطلع 344 00:28:36,780 --> 00:28:41,570 معها error وبعدين كانت مقتربة، بس ايش؟ التغيير 345 00:28:41,570 --> 00:28:45,550 اللي حصل كان تغيير كبير في الأوزان، خلها تفشل عن.. 346 00:28:45,550 --> 00:28:50,290 زي ما هم بيقولوها، تخطي الصواب، وصارت الاشياء تبعد، و 347 00:28:50,290 --> 00:28:54,430 بعدين صارت تتردد ثانية، بس لما ردت ما رجعتش على الصواب، 348 00:28:54,430 --> 00:28:57,890 فشلت عنه بـ.. فصار.. فايش فيه مشكلة؟ المشكلة أنها 349 00:28:57,890 --> 00:29:01,450 بتخطي خطوات واسعة، فأنا بضيق الخطوات هذه، كيف بضيق 350 00:29:01,450 --> 00:29:08,770 الخطوات؟ بنزل الاشياء، الـ alpha، الـ learning rate، فإذا 351 00:29:08,770 --> 00:29:19,460 كان الـ sign خلاص، فأقول إذا هي مش stable sign 352 00:29:19,460 --> 00:29:25,700 of SSE alternates، 353 00:29:25,700 --> 00:29:29,960 معناه 354 00:29:29,960 --> 00:29:34,880 ذلك، decrease ألفا، 355 00:29:34,880 --> 00:29:39,830 decrease ألفا، برضه يكون عندي كمان، بتقدر تتخيل يعني 356 00:29:39,830 --> 00:29:48,910 هنا هو مثلاً الـ decrease، 357 00:29:48,910 --> 00:29:56,070 بأنه بضربها بـ 70%، بـ 7 من 10، يعني بنزلها 30%، تمام؟ و 358 00:29:56,070 --> 00:30:03,790 الـ increase بضربها في 1.05، واضح؟ تمام؟ فهنا 359 00:30:03,790 --> 00:30:10,570 بوريلك كيف أنه هاي الـ Epochs ماشية، وفي ده الـ دي 360 00:30:10,570 --> 00:30:18,250 الـ learning rate قاعد بتساعد نتيجة تطبيق ايش؟ هذي 361 00:30:18,250 --> 00:30:23,250 تمام؟ قاعد بيحسب لك أنه الـ error، الـ software 362 00:30:23,250 --> 00:30:26,810 errors قاعد في النازل، صح؟ في النازل، يعني إشارته 363 00:30:26,810 --> 00:30:32,170 دائماً موجبة، مظبوط؟ بقى أطرح السابق، وبقى أطرح منه 364 00:30:32,170 --> 00:30:37,960 اللاحق، وطلع موجب، فهو بسبب أنه هذا موجب، التغير 365 00:30:37,960 --> 00:30:44,780 موجب، اه التغير موجب، فهو عمال بيرفع، ليش؟ في اللي 366 00:30:44,780 --> 00:30:49,000 عند حد معين، جاب 367 00:30:49,000 --> 00:30:53,540 الـ الـ 368 00:30:53,540 --> 00:30:59,840 alpha بدأت تنزل، و نزولها، لأن وضعها في 0.7، النزول 369 00:30:59,840 --> 00:31:04,000 أسرع أو أشد من الصعود، صعود تدريجي بسيط 5% كل مرة، 370 00:31:04,000 --> 00:31:11,240 إنما هنا 30% كل مرة، فبدأت تنزل نزلة جامدة، مين هي 371 00:31:11,240 --> 00:31:14,980 اللي هو الـ learning rate نزل نزل جامدة، مع النزلة 372 00:31:14,980 --> 00:31:20,640 هذه، بدأ يقترب من ايش؟ من، بوريك فعلياً هذا الأسلوب 373 00:31:20,640 --> 00:31:22,440 في الاقتراب من 374 00:31:25,600 --> 00:31:33,420 من الـ error المخفض بوقت أقل، 100 epoch بدلاً من 126 375 00:31:33,420 --> 00:31:39,920 epoch، هذا 376 00:31:39,920 --> 00:31:45,280 الآن استخدم الـ momentum مع برضه هذه الـ heuristic، 377 00:31:45,280 --> 00:31:48,960 إقبال adaptive، ايش يعني adaptive؟ يعني لما نقول 378 00:31:48,960 --> 00:31:53,100 adapter، ايش يعني adapter؟ يعني محول، adaptive يعني 379 00:31:53,100 --> 00:31:58,260 أنه يتحول ويغير من تلقاء نفسه، ماهو اللي بتغير من 380 00:31:58,260 --> 00:32:02,240 تلقاء نفسه الـ learning rate لوحده بناء على 381 00:32:02,240 --> 00:32:07,980 استشعاره لـ sign تبع من الـ sum of square arrows، 382 00:32:07,980 --> 00:32:12,180 هو نفسه من تلقاء نفسها الـ network بتغير في الـ 383 00:32:12,180 --> 00:32:15,460 learning rate تبعها، عشان ذلك اسم هذا الكلام 384 00:32:15,460 --> 00:32:19,680 adaptive learning، فلما اندمج الـ two techniques الـ 385 00:32:19,680 --> 00:32:26,480 adaptive learning مع الـ momentum، صار عندي اختصار 386 00:32:26,480 --> 00:32:32,160 لسه أكثر، صرنا بنصل إلى 387 00:32:32,160 --> 00:32:35,780 الـ zero 388 00:32:35,780 --> 00:32:41,280 تقريباً error، ومعناه مش zero، هذا الكلام واحد من ألف، نقص 389 00:32:41,280 --> 00:32:45,580 ألف، نقص ثلاث يعني واحد من الألف، يعني مش zero، 390 00:32:46,700 --> 00:32:50,940 ما بدناش بالظبط 0، يعني ممكن تبقى صعب جداً أنّه الـ 391 00:32:50,940 -->