1 00:00:20,650 --> 00:00:23,110 بسم الله الرحمن الرحيم احنا اليوم ان شاء الله بدنا 2 00:00:23,110 --> 00:00:26,450 نكمل الموضوع اللي فتحناه قبل هيكه في المحاضرات 3 00:00:26,450 --> 00:00:32,610 الماضية اللي هو ال artificial neural networks ال 4 00:00:32,610 --> 00:00:35,670 supervised learning باستخدام ال artificial neural 5 00:00:35,670 --> 00:00:42,570 networks كنا في المحاضرة الماضية حكينا عن اللي هو 6 00:00:42,570 --> 00:00:48,290 ال Perceptron وشوفنا قالية العمل تبعتهو آلية 7 00:00:48,290 --> 00:00:53,090 التعلم اللي هي مقصودة بالتعديل الأوزاني و بعدين 8 00:00:53,090 --> 00:00:57,270 كمان ايضا اطلعنا على ال multi-layered networks ال 9 00:00:57,270 --> 00:01:00,270 multi-layered networks اللي هي عبارة عن شبكة من ال 10 00:01:00,270 --> 00:01:05,850 perceptrons الشبكة هذه مهيكلة على أساس layers و ال 11 00:01:05,850 --> 00:01:08,890 layers كل layer فيها مجموعة من ال perceptrons 12 00:01:08,890 --> 00:01:13,090 بتغذي المجموعة اللي بعدها أو ال layer اللي بعدها 13 00:01:14,080 --> 00:01:18,840 وشوفنا آلية الآن التعلم في ال multilayer networks 14 00:01:18,840 --> 00:01:23,080 صح آلية التعلم المفصولة بها مرة أخرى اللي هي آلية 15 00:01:23,080 --> 00:01:27,420 تعديل الأوزان وشوفنا كيف بتختلف آلية تعديل الأوزان 16 00:01:27,420 --> 00:01:36,000 في ال output يرعنها في ال hidden layer صح الآن 17 00:01:36,000 --> 00:01:40,290 احنا بدنانلقي نظرة أخيرة على ال multilayer 18 00:01:40,290 --> 00:01:44,510 networks بعدين بنحكي في جزئية صغيرة اللي هي ال 19 00:01:44,510 --> 00:01:48,610 accelerating اللي هي النقطة هذه ماضح النقطة هذه 20 00:01:48,610 --> 00:01:53,170 اللي هي accelerated learning المقصود بيها تسريع 21 00:01:53,170 --> 00:01:56,710 عملية التعلم عملية التعلم احنا فاهمين انها بتحصل 22 00:01:56,710 --> 00:02:04,390 على شكل ايش iterations iterations مظبوط وسمينا كل 23 00:02:04,390 --> 00:02:08,630 مجموعة من ال iterations سمينها epo صحالـ Epoch هو 24 00:02:08,630 --> 00:02:14,970 دفعة أو short من ال iterations عملية التسريع هو 25 00:02:14,970 --> 00:02:21,870 تقليل عدد ال iterations بدل من أن ال network تأخذ 26 00:02:21,870 --> 00:02:29,940 400 دورة 400 iterations قبل أن تستقر الأوزانلما 27 00:02:29,940 --> 00:02:33,020 بنقول احنا بدنا نسرع لقليلة التعلم، معناه ذلك 28 00:02:33,020 --> 00:02:36,240 الأربعمية هدولة بدنا نختصرهم أو بنجللهم إلى تلت 29 00:02:36,240 --> 00:02:42,100 مية، إلى متين، إلى مية ربما، بدون أن ننطقش من دقة 30 00:02:42,100 --> 00:02:48,290 التعلمهذه النقطة اللي هي المقصود بها اللي هو 31 00:02:48,290 --> 00:02:52,730 accelerated learning او ممكن نقول accelerating ال 32 00:02:52,730 --> 00:02:55,570 learning يعني تسريع التعلم في ال multi neural 33 00:02:55,570 --> 00:02:59,390 networks بعد ما نخلص النقطة هذه ان شاء الله بنتطلع 34 00:02:59,390 --> 00:03:03,250 على ال hub field network و ال BAM اللي هي 35 00:03:03,250 --> 00:03:07,010 bidirectional associative memories هدولة نوعين من 36 00:03:07,010 --> 00:03:13,420 ال artificial neural networksاللي بينطور تحت إطار 37 00:03:13,420 --> 00:03:18,200 اللي هو supervised learning طيب، إيش قلنا بدنا 38 00:03:18,200 --> 00:03:20,640 نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على ال 39 00:03:20,640 --> 00:03:23,920 multilayer neural networks اللي كنا حكينا فيها من 40 00:03:23,920 --> 00:03:28,400 قبل بدنا نتقل على طريقة ال slide اللي فيها ال 41 00:03:28,400 --> 00:03:34,040 example اللي تبع تتذكروا تبع إيش؟ تبع تدريب ال 42 00:03:34,040 --> 00:03:41,100 network علىاللي هو ال XOR ال XOR gate او ال XOR 43 00:03:41,100 --> 00:03:44,900 function ذاكرين 44 00:03:44,900 --> 00:03:49,700 هذا المثال اما كنا بنحكي انه هاي ال neural network 45 00:03:49,700 --> 00:03:54,920 في عندنا التلاتة nodes هدولة node رقم تلاتة و رقم 46 00:03:54,920 --> 00:03:58,020 اربعة هدولة تابعين لأنهي layer ال hidden layer 47 00:03:58,020 --> 00:04:03,460 مظبوط ال hidden layer صح و ال output layer ايش 48 00:04:03,460 --> 00:04:07,660 فيهافيها node واحدة اللي هي node number five صح 49 00:04:07,660 --> 00:04:13,200 لأن ال input بيدخل ب X1 و X2 على node number one و 50 00:04:13,200 --> 00:04:16,700 node number two ملاحظين هدول ال two nodes شكلهم 51 00:04:16,700 --> 00:04:22,780 مربع لتمييزهم عن من عن ال nodes الأخرى مميزين بإيش 52 00:04:22,780 --> 00:04:26,300 إيش الفرق ما بينهم إن هدول ما بيعملوش أي 53 00:04:27,210 --> 00:04:31,330 calculations مابعملوش أي computation صح مجرد اللي 54 00:04:31,330 --> 00:04:35,890 بيدخل عليهم بتوزع علي مين علي بعدهم okay يبقى احنا 55 00:04:35,890 --> 00:04:39,730 عمليا في المثال هذا يوم ما بدنا نيجي نحسب و نعد 56 00:04:39,730 --> 00:04:42,990 الأوزان و نعد الأوزان بس تلاتة و أربعة و خمسة 57 00:04:42,990 --> 00:04:47,470 مظبوط بنبدأ من مين من الخمسة في الأول بالظبط لإن 58 00:04:47,470 --> 00:04:52,080 الخمسة هي اللي عندها desired outputو هي اللى بتقدر 59 00:04:52,080 --> 00:04:55,460 تعرف ال error او تحسب ال error و بعدها بتطلع ال 60 00:04:55,460 --> 00:04:59,420 error بتعدل أوزانها و بعدها بترحل ال error 61 00:04:59,420 --> 00:05:02,820 gradient الى مين الى تلاتة و أربعة ال error 62 00:05:02,820 --> 00:05:07,900 gradient اللى ذكره هو small delta بترحل الى تلاتة 63 00:05:07,900 --> 00:05:10,740 و الى أربعة عشان كل واحدة منهم تلاتة و أربعة تحسب 64 00:05:10,740 --> 00:05:15,230 ال error تبعها ال error gradient تبعها يعنيعشان 65 00:05:15,230 --> 00:05:18,730 تعدّل أوزانها بناء عليه هذه الكلام هي total طبعا 66 00:05:18,730 --> 00:05:22,710 هنا في ال slide هذه بيعقيلك ال initial values تبع 67 00:05:22,710 --> 00:05:30,390 ال ايش الأوزان 68 00:05:30,390 --> 00:05:34,230 ال threshold 69 00:05:34,230 --> 00:05:41,980 that theta صح؟ مصبوط؟بعد ذلك هنا بيبدأ الحسبة أول 70 00:05:41,980 --> 00:05:46,260 شيء بيحسب ال Y3 ال output اللي بدي يطلع من Y3 71 00:05:46,260 --> 00:05:53,100 مظبوط بس احنا قلنا أول حاجة بدي تم تعديل الأوزان 72 00:05:53,100 --> 00:05:59,840 فيها على Y5 طب ليش بدأنا في Y3 و Y4؟ لأن وصل ال Y5 73 00:06:01,600 --> 00:06:05,000 بتعرف كيف تحسب ال output تبعها لازم يجيها input من 74 00:06:05,000 --> 00:06:09,120 وين بتجيها ال input من Y3 و Y4 يبقى لازم أحسب Y3 و 75 00:06:09,120 --> 00:06:13,800 Y4 ليش بدهم يطلعوا عشان نسلموا ل Y5 عشان Y5 تحسب 76 00:06:13,800 --> 00:06:16,580 ال output تبعها تبعها دلوقت لإن شوف إيش فيه error 77 00:06:16,580 --> 00:06:22,180 و اترحل تاني يعني احنا forward propagation 78 00:06:22,180 --> 00:06:26,140 of data و backward propagation of error 79 00:06:26,140 --> 00:06:31,070 information صح؟ okayهي الآن بعد ما طلعت ويتلت و .. 80 00:06:31,070 --> 00:06:34,050 من حسب ويتلت و .. طبعا ويتلت ال activation 81 00:06:34,050 --> 00:06:37,870 function استخدمت اللي هي ال sigmoid ال sigmoid 82 00:06:37,870 --> 00:06:41,270 طبعا يوم ما يكون في عندك مثلة أو امتحان أو كده ال 83 00:06:41,270 --> 00:06:44,830 formula هتبدو مواطية لك انت بس مجرد ايش بتاخد 84 00:06:44,830 --> 00:06:48,110 الأرقام و بتطلع ال output ال output لأن ال sigmoid 85 00:06:48,110 --> 00:06:51,330 بتطلع continuous values يعني ايش يعني أرقام عشرية 86 00:06:51,330 --> 00:06:58,750 مش binary زي مين زي ال stepو ليش؟ بال pulse 87 00:06:58,750 --> 00:07:04,010 function صح؟ okay فالان هذه ال continuous values 88 00:07:04,010 --> 00:07:07,870 او ال real values او ال float values بتدخش على مين 89 00:07:07,870 --> 00:07:12,350 على Y5 تنضرب في الأوزن تبعها و تتاخذ مع ال 90 00:07:12,350 --> 00:07:16,750 threshold عشان تطلع ال output تبع Y5 من هنا الأن 91 00:07:16,750 --> 00:07:20,610 نبدأ نشوف ليش ال error ال error اللي انا بنحسب هو 92 00:07:20,610 --> 00:07:24,610 عبارة عن ببساطة ال difference ما بين ال desired ال 93 00:07:24,610 --> 00:07:32,080 desired لما كانلما يكون عندي انا ال X واحد X واحد 94 00:07:32,080 --> 00:07:36,240 انا بقشر هنا X واحد و X اتنين الاتنين ال input ال 95 00:07:36,240 --> 00:07:41,340 value تبعهم one one one لازم ال X core function 96 00:07:41,340 --> 00:07:42,120 تعطيني ايش 97 00:07:50,560 --> 00:07:54,460 Y5 يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا 98 00:07:54,460 --> 00:07:56,580 في ال calculation هذا يفترض أن يكون Zero بس ماهو 99 00:07:56,580 --> 00:07:56,920 اللي بيطلع معنا هنا في ال calculation هذا يفترض أن 100 00:07:56,920 --> 00:07:56,960 يكون Zero بس ماهو اللي بيطلع معنا هنا في ال 101 00:07:56,960 --> 00:08:03,540 calculation هذا يفترض أن يكون Zero بس 102 00:08:03,540 --> 00:08:05,000 ماهو اللي بيطلع معنا هنا في ال calculation هذا 103 00:08:05,000 --> 00:08:06,320 يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا في 104 00:08:07,180 --> 00:08:09,700 الـ small delta تبعه هاي الخمسة اللي هي ايش اسمها 105 00:08:09,700 --> 00:08:13,220 ال error gradient شوف أنا وين بقشر هنا ال error 106 00:08:13,220 --> 00:08:18,200 gradient اذا ذكروها هذا المصطلح ان هو ال small 107 00:08:18,200 --> 00:08:23,070 deltaال aero gradient هذا لما بنحسب بعد هيكة على 108 00:08:23,070 --> 00:08:27,630 أساسه تتعدى للأوزان الأوزان تبعون ال inputs اللي 109 00:08:27,630 --> 00:08:33,890 داخلة على Y خمسة صح؟ من هم هدول الأوزان W تلاتة 110 00:08:33,890 --> 00:08:38,190 خمسة و W أربعة خمسة ليش أسميهم هيكة لإن واحد منهم 111 00:08:38,190 --> 00:08:42,670 جاي من تلاتة إلى خمسة والتاني جاي من أربعة إلى 112 00:08:42,670 --> 00:08:47,470 خمسة او الاصح ان احنا نقول واحد منهم هو وزن ال 113 00:08:47,470 --> 00:08:51,610 input اللي جايمن ثلاثة إلى خمسة والتاني هو وزن ال 114 00:08:51,610 --> 00:08:56,910 input اللي جاي من أربعة إلى خمسة صح؟ طبعا فأول اشي 115 00:08:56,910 --> 00:09:00,370 عشان نعدل الأوزن نحسب ال delta تبع الوزن مقدار 116 00:09:00,370 --> 00:09:08,390 التغير بعدين بنضيف ذلك على ال current أو ال weight 117 00:09:08,390 --> 00:09:13,250 الوزن الحالي عشان يطلع معانا وزن جديد نفس الاشي 118 00:09:13,250 --> 00:09:18,000 بنعمل لمين؟الـ Theta ، الـ Threshold لاحظوا أن 119 00:09:18,000 --> 00:09:20,900 عملي التعليل الأوزان ببساطة شديدة يعني الـ Delta 120 00:09:20,900 --> 00:09:22,880 يبقى عبارة عن الـ Alpha اللي هو ال learning rate 121 00:09:22,880 --> 00:09:28,920 مضروب في ال .. قيمة ال input اللي بيخش عبر هذا 122 00:09:28,920 --> 00:09:33,740 الوزن مضروب في ال Delta small Delta اللي هي ال 123 00:09:33,740 --> 00:09:38,840 Delta 5 فهي Delta 5 موجودة في التلت حسبات 124 00:09:40,110 --> 00:09:44,130 طيب هذا الكلام ايش خلصنا ده هذا الكلام بس لحساب 125 00:09:44,130 --> 00:09:48,210 الأوزان تبعد من ال input اللي داخلها على مين على 126 00:09:48,210 --> 00:09:52,450 y5 لازم نعيد نفس الاشي لل inputs اللي داخلها على 127 00:09:52,450 --> 00:10:01,630 y3 و y4 صح؟ okay هذا الكلام نفس القاليم بس طبعا 128 00:10:01,630 --> 00:10:05,270 لازم في الأول كل واحدة من y3 و y5 تحسب ال error 129 00:10:05,270 --> 00:10:09,520 gradient تبعها اللي هو ال small delta تبعتهاوبعدين 130 00:10:09,520 --> 00:10:15,220 عليه small delta تدخل 131 00:10:15,220 --> 00:10:19,040 في حساب الأوزان اللي رايح على تلاتة وبعدين small 132 00:10:19,040 --> 00:10:21,860 delta تبعد أربعة تدخل في حساب الأوزان اللي رايح 133 00:10:21,860 --> 00:10:29,800 على أربعة انا الآن بدل ما اني طبعا هنا بعد هيك 134 00:10:29,800 --> 00:10:35,020 الأوزان اللي هو w واحد على تلاتة واحد على أربعة 135 00:10:35,020 --> 00:10:37,840 اتنين على تلاتة اتنين على اربعة تلاتة على خمسة 136 00:10:37,840 --> 00:10:44,500 تلاتة على اربعةOkay بدل أنا الآن نمر بهذا الحساب 137 00:10:44,500 --> 00:10:48,900 خطوة خطوة لأ أنا بدي أجيب و أقولك الآن اعتبر انت 138 00:10:48,900 --> 00:10:53,340 بدك تكمل المثال هذا ال iteration اللي بعت هذ ال 139 00:10:53,340 --> 00:10:56,880 iteration الأولى ولا لأ لإن هذ ال iteration انبنت 140 00:10:56,880 --> 00:11:01,760 على ال initial ال initialish values تبع الأوزان 141 00:11:01,760 --> 00:11:07,610 مصبوط انت الآن خد هذاو خد ال input اللي بعده مين 142 00:11:07,610 --> 00:11:09,750 ال input اللي بعده اذا كان ال input الأولاني كان 143 00:11:09,750 --> 00:11:17,430 one one خد zero one x1 ب zero و x2 ب one و عيد 144 00:11:17,430 --> 00:11:25,890 الكرة من جديد بالأوزان اللي هذه اللي نتجت من نهاية 145 00:11:25,890 --> 00:11:28,390 ال iteration الأولى انت الآن بدك تحسب ال iteration 146 00:11:28,390 --> 00:11:33,310 التانية بتقدر تعمل هذا الكلام ولا لا بتقدر اذا 147 00:11:33,310 --> 00:11:37,740 أعطيناك homework ان شاء الله بتقدرلأ فخلاص هي الان 148 00:11:37,740 --> 00:11:42,260 homework هي الان homework مطموعة منك أيش تسوي تعيد 149 00:11:42,260 --> 00:11:47,140 الكلام ده كله لل iteration number two عشان تطلع 150 00:11:47,140 --> 00:11:52,140 أيش في الآخر الأوزان يعني في الآخر بدك تطلع صفحة 151 00:11:52,140 --> 00:11:59,710 زي هيك فيها أوزان جديدةاللي بدها تجف عندها اللي هو 152 00:11:59,710 --> 00:12:02,110 ال iteration التاني في نهاية ال iteration التاني 153 00:12:02,110 --> 00:12:05,870 ايش هتكون قيمة الأوزان الجديدة و ال thresholds 154 00:12:05,870 --> 00:12:11,430 جديدة okay طيب هيك بنكون احنا القيل النظر الأخير 155 00:12:11,430 --> 00:12:16,470 على عملية ال back propagation learning واضح ليش 156 00:12:16,470 --> 00:12:20,150 اسمها back propagation لأن احنا بنحمل ال error 157 00:12:20,150 --> 00:12:25,100 لوراعلى ال layers من ال outward على ال hidden ال 158 00:12:25,100 --> 00:12:28,600 hidden طبعا ممكن تبقى layer واحدة او اكتر نين ممكن 159 00:12:28,600 --> 00:12:33,880 two hidden layers ماشي 160 00:12:33,880 --> 00:12:37,240 هاد الان احنا بدنا نحكي في ال acceleration كيف 161 00:12:37,240 --> 00:12:44,540 يمكن تسريع التسريع ال learning هذا ال curve لو 162 00:12:44,540 --> 00:12:50,300 لاحظت عليه ايش بيمثل علاقة ايش بايش هنا epoقول 163 00:12:50,300 --> 00:12:53,940 iterations لأن ال book الواحد هي مجموعة iterations 164 00:12:53,940 --> 00:12:57,300 فانا هنا من zero عشان خمسين مية مية خمسين ميتين 165 00:12:57,300 --> 00:13:02,580 اقصد بيها ايش ميتين iterations مية خمسين 166 00:13:02,580 --> 00:13:07,980 iterations كل ما بزيد عدد ال iterations يفترض ان 167 00:13:07,980 --> 00:13:15,020 ال error ايش بيصير فيه بيجل بيتنقص احنا الآن ال 168 00:13:15,020 --> 00:13:18,490 errorأحيانا ال network بتبقى ال output layer 169 00:13:18,490 --> 00:13:23,890 تبعتها فيها ال node واحدة فهو error واحد مصبوط 170 00:13:23,890 --> 00:13:28,410 أحيانا بيبقى ال layer الأخيرة بيبقى فيها عد تش 171 00:13:29,090 --> 00:13:32,310 notes وبالتالي ال error في عندي error للأولى error 172 00:13:32,310 --> 00:13:35,630 للتانية عدة errors مصموم فإحنا لو جينا ببساطة 173 00:13:35,630 --> 00:13:39,870 شديدة ربعنا ال errors هذه وجمعنا مربعاتهم بيطلع 174 00:13:39,870 --> 00:13:43,870 عني هنا some square error some square error يعني 175 00:13:43,870 --> 00:13:52,170 مقصود بمجموع مربعات ال errors تابعة من تابعة 176 00:13:52,170 --> 00:13:58,630 ال notesهناك أيضا تدخل في الحسبة هالي ال errors 177 00:13:58,630 --> 00:14:02,670 تبع ال hidden layers ال hidden nodes برضه ممكن 178 00:14:02,670 --> 00:14:05,790 نيجي نقول خلينا نجمع كل ال nodes اللي في ال 179 00:14:05,790 --> 00:14:10,410 network سواء output nodes ولا hidden nodes و نجمع 180 00:14:10,410 --> 00:14:14,910 ال errors تبعه منهم طبعا نعبيها في الأول و نجمع 181 00:14:14,910 --> 00:14:19,540 بيطلع معايا some square errorsome square error هذا 182 00:14:19,540 --> 00:14:24,480 يصلح أن يكون مؤشر على إيش على أداء الشبكة أداء ال 183 00:14:24,480 --> 00:14:28,460 network هل تعلمت أو لا صح لأن كل ما عليه ال error 184 00:14:28,460 --> 00:14:32,940 هذا معناته هي لسه لسه 185 00:14:32,940 --> 00:14:37,360 بتخطط لسه بتخطط صح طب احنا في الأول ليش بنربّل 186 00:14:37,360 --> 00:14:41,040 نعمل تربيع ال error ليش ما ناخده زي ما هو قولنا 187 00:14:41,040 --> 00:14:44,340 هذا لأن بعض ال errors بتبقى بالموجب وبعض بالسالب 188 00:14:44,340 --> 00:14:47,560 لو جمعناهم هم ممكن يصفروا بعضهم 189 00:14:50,980 --> 00:14:54,800 مربعهم على انه مؤشر صح لكن لما نبقى ربع ال errors 190 00:14:54,800 --> 00:14:59,200 الموجب والسالب بيصير موجب و لا لأ المربعات بيصير 191 00:14:59,200 --> 00:15:03,900 موجب فنقدر ننظر اليش الي مجموع المربعات على انه 192 00:15:03,900 --> 00:15:08,660 مؤشر على ايش مؤشر 193 00:15:08,660 --> 00:15:15,620 على ايش مؤشر على التعلم جد جيشي تعلمتفهذا الخط 194 00:15:15,620 --> 00:15:20,460 الأزرق أزرق بطالة أزرق أزرق لما بينزل هيكا معناته 195 00:15:20,460 --> 00:15:28,320 إيش مع استمرار عملية التعلم جاعد إيش ال error بجل 196 00:15:28,320 --> 00:15:33,740 صح مع استمرار تشغيل ال iterations ال error جاعد 197 00:15:33,740 --> 00:15:38,940 بجل فإحنا الآن لما بقول accelerating معناته بدنا 198 00:15:38,940 --> 00:15:45,170 ينزل للصفر الصفرهو بعدد ايش اقل من ال iterations 199 00:15:45,170 --> 00:15:49,670 فبنتقل 200 00:15:49,670 --> 00:15:55,410 الان الى هذا ال slide 201 00:15:55,410 --> 00:15:59,830 هناOkay هي بداية اللي هو اللي حاكي عن ال 202 00:15:59,830 --> 00:16:04,770 accelerated learning اعتبرها accelerating learning 203 00:16:04,770 --> 00:16:10,190 يعني ان هو احنا نسرع عملية التعلم ففي عندنا عدة 204 00:16:10,190 --> 00:16:14,350 techniques او عدة خطوات او إجراءات ممكن تنعمل 205 00:16:14,350 --> 00:16:17,650 تغيير بسيطة تغييرات بسيطة على تصميم ال neural 206 00:16:17,650 --> 00:16:21,410 network عساس انه تخلي عملية التعلم أسرع شوية واحدة 207 00:16:21,410 --> 00:16:27,410 منها اللي هي انه ال outputيعني ال .. ال .. ال 208 00:16:27,410 --> 00:16:30,010 sigmoid function اللي على .. اللي هي ال activation 209 00:16:30,010 --> 00:16:36,670 function يعاد صياغتها بهذا الصينةبهذا السبب اللي 210 00:16:36,670 --> 00:16:40,790 هو انه احنا يكون في عندي two constants a و b ال 211 00:16:40,790 --> 00:16:45,730 two constants a و b هدولة ينحسب ال ال y اللي هو ال 212 00:16:45,730 --> 00:16:49,910 output تبع ال perceptron او النود الواحدة بهذه 213 00:16:49,910 --> 00:16:52,890 القلية بدل ما بهذه ال equation بدل ال equation 214 00:16:52,890 --> 00:16:55,650 الأساسية هذه ال equation هي عبارة عن ال equation 215 00:16:55,650 --> 00:16:59,890 تمثل sigmoid functionمش إش جديد بس صياغة أخرى 216 00:16:59,890 --> 00:17:05,370 إليها الصياغة هذه بتساعد على تسريع اختصار وجد يعني 217 00:17:05,370 --> 00:17:11,460 تغيير الأوزان بكميات أكبر وصولا إلي إيشوصولا الى 218 00:17:11,460 --> 00:17:17,880 اوزان بتعطي error اقل فهذه الطريقة الأولى اللي هي 219 00:17:17,880 --> 00:17:22,860 استخدام ال hyperbolic tangent function او صيغة ال 220 00:17:22,860 --> 00:17:26,540 hyperbolic tangent تبع ال sigmoid function بدل ال 221 00:17:26,540 --> 00:17:30,460 direct sigmoid هذا الكلام مش هوصفه ليش لأنه بده 222 00:17:30,460 --> 00:17:32,980 mathematical foundation حل ال mathematical 223 00:17:32,980 --> 00:17:39,640 foundation ل .. ل .. ليش؟ 224 00:17:41,620 --> 00:17:46,340 لـ course يكون في الجزء النظري أكتر فإحنا الآن 225 00:17:46,340 --> 00:17:49,560 بدنا ننتقل على هذا هو الطريقة الأولى هذا الطريقة 226 00:17:49,560 --> 00:17:53,880 الأولى لتسريع عملية التعلم طريقة تانية اللي هو 227 00:17:53,880 --> 00:17:57,300 إحنا نستخدم حاجة اسمها momentum term اتطلع على 228 00:17:57,300 --> 00:18:01,860 المعادلة هذه اتطلع على الشق هذا هل الشق هذا شفناه 229 00:18:01,860 --> 00:18:05,600 قبل هيك أول شيء ايش اللي على اليسار اللي يساوي 230 00:18:05,600 --> 00:18:12,400 اللي هو ال delta W اللي هو إيشفرق الوزن بالعادة 231 00:18:12,400 --> 00:18:16,380 احنا بنعرف ان فرق الوزن هو في المحصلة هيك بس مجرد 232 00:18:16,380 --> 00:18:21,280 ال alpha مضروبة في ال input مضروبة في small delta 233 00:18:21,280 --> 00:18:25,700 للأ اذكركم في هذا الكلام هيتوا ارجع هنا ورا شوية 234 00:18:25,700 --> 00:18:30,980 ارجع هنا ورا شوية هيتوا هي delta صح عبارة عن ايش 235 00:18:30,980 --> 00:18:35,450 alpha مضروبة في XX اللي هي ال inputمضروف ليس في 236 00:18:35,450 --> 00:18:38,410 دلتا دلتا اللي هي error gradient تبع ال node نفسها 237 00:18:38,410 --> 00:18:43,530 اللي نحسب لها تلاتة او زمن الداخلة عليها من واحد و 238 00:18:43,530 --> 00:18:53,830 من اتنين مبدئيا للي مش حافظ تعديل الوزن delta w هي 239 00:18:53,830 --> 00:18:56,690 عبارة عن ببساطة learning rate 240 00:18:59,110 --> 00:19:02,870 مضروب في ال input اللى داخل على ال node من هذا 241 00:19:02,870 --> 00:19:07,810 الوزن مضروب في ال gradient طيب ايش الاستجاد 242 00:19:07,810 --> 00:19:11,710 الاستجاد هذا ال band هذا او هذا ال term هذا ال 243 00:19:11,710 --> 00:19:14,790 term اللى هو ال momentum term momentum يعني الدفع 244 00:19:14,790 --> 00:19:18,450 بيعطي الدفع لعملية التعلمة هو ببساطة شديدة عبارة 245 00:19:18,450 --> 00:19:22,970 عن beta هي عبارة عن constant صغير ما بين ال zero 246 00:19:22,970 --> 00:19:28,630 والواحد مضروب في ايشمضروف في ايش؟ في الـ delta 247 00:19:28,630 --> 00:19:33,190 point يعني بدنا الآن ال network تتذكر ال delta 248 00:19:33,190 --> 00:19:39,050 السابق احنا نحسب ال delta تبع P و بنقول انه بدنا 249 00:19:39,050 --> 00:19:44,210 ال delta تبع P نقص واحد يعني ايش؟ ال delta السابق 250 00:19:44,210 --> 00:19:50,310 مش الوزن السابق مش W لأ delta W بدنا ناخده هذا 251 00:19:51,510 --> 00:19:57,390 نحتفظ فيه للدورة اللاحقة عشان نضربه في مين في ال 252 00:19:57,390 --> 00:20:04,590 beta هذا الكلام بشكل دفع لمين لعملية التعلم وهذا 253 00:20:04,590 --> 00:20:11,070 ال beta قيمة تتراوح من zero لواحد عادة تبتد قريبة 254 00:20:11,070 --> 00:20:17,690 من الواحد قريبة من الواحد يعني 0.95 مثلا فهذا اللي 255 00:20:17,690 --> 00:20:18,150 هو الآن 256 00:20:27,380 --> 00:20:32,280 two methods او two measures او two steps او two 257 00:20:32,280 --> 00:20:41,980 techniques ليش for accelerating أول 258 00:20:41,980 --> 00:20:42,920 واحد ايش كانت؟ 259 00:21:01,740 --> 00:21:06,060 الثاني استخدام ايش 260 00:21:06,060 --> 00:21:11,540 momentum constant term لأ ال constant هو جزء من ال 261 00:21:11,540 --> 00:21:15,100 term هذا هو كله عبارة عن ال momentum term تتكوّل 262 00:21:15,100 --> 00:21:20,260 من حاجتين مضروبات في بعض اللي هم ال momentum 263 00:21:20,260 --> 00:21:26,540 constant اللي هي beta مضربة في ال W تبعت ال 264 00:21:26,540 --> 00:21:34,100 iteration السابقهذا ال term بينجمع على ال term 265 00:21:34,100 --> 00:21:40,240 الأصلي تبع تعديل الأوزان اللي هو ال alpha مضروبة 266 00:21:40,240 --> 00:21:48,820 في ال input مضروبة في ال error gradient error 267 00:21:48,820 --> 00:21:54,780 gradient اللي هي small delta تمام؟ 268 00:21:54,780 --> 00:21:57,800 إيش 269 00:21:57,800 --> 00:22:02,890 غير إيك؟ هدولا طريقتين اللي قاله إيشأو أسلوبين لـ 270 00:22:02,890 --> 00:22:10,710 Accelerating Learning غير هيكة هذا المثال نفس 271 00:22:10,710 --> 00:22:20,270 المثال اللي قبل هيكة بوريها كيف ال 272 00:22:20,270 --> 00:22:27,770 learning rate هنا ثابت ماتغيرش ثابت و ال error 273 00:22:27,770 --> 00:22:37,800 بينزل ال error بينزلصار بدل ما أخدت بدل 274 00:22:37,800 --> 00:22:44,280 ما تاخد 200 iteration عشان يقترب ال error من ال 275 00:22:44,280 --> 00:22:52,340 zero أخدت جداش 126 276 00:22:52,340 --> 00:22:57,120 epo او iteration مش مشكلة المهم القصد أنه انضغط 277 00:22:57,120 --> 00:23:03,340 الأمر من 200 إلى 126هذا باستخدام ال momentum term 278 00:23:03,340 --> 00:23:11,320 لما أضيف ال momentum term على تصميم formula تعديل 279 00:23:11,320 --> 00:23:18,920 الوزن صار اختزل او جل الوجد الى 126 ابوك بدل 200 280 00:23:18,920 --> 00:23:25,340 ابوك الآن اضافة إلى هذول ال two techniques رقم 281 00:23:25,340 --> 00:23:27,360 تلاتة اللى هو ال heuristics 282 00:23:33,520 --> 00:23:37,660 plastics هذو لا فيها any tools rule بتقول إنه إذا 283 00:23:37,660 --> 00:23:43,780 كان أنا قاعد باجمع اللي هو إيش ال sum of square 284 00:23:43,780 --> 00:23:46,940 errors إيش هو ال sum of square errors بتذكرها لو 285 00:23:46,940 --> 00:23:51,040 لسه كنا نحكي اللي هو بجمع ال errors تبعد كل ال 286 00:23:51,040 --> 00:23:55,900 nodes و بربعها أولا بخدها بربعها بعدين بجمع 287 00:23:55,900 --> 00:24:01,900 مربعاتها إذا من epo ل epo ال sum of square errors 288 00:24:01,900 --> 00:24:12,120 هذاsome of square errors باستمرار 289 00:24:12,120 --> 00:24:20,060 ال some هذا من 290 00:24:20,060 --> 00:24:26,520 واحد للي بعده اما في ازدياد يعني في الاول كان ال 291 00:24:26,520 --> 00:24:30,780 some نقول مثلا تلاتة بعدين صار اربع بعدين صار خمسة 292 00:24:30,780 --> 00:24:31,280 بعدين ستة 293 00:24:35,780 --> 00:24:45,980 بيزيد او الاكس انه في النزول يعني ال sum تبع هذا 294 00:24:45,980 --> 00:24:49,400 ال epoch اقل من اللي جابله و اللي بعد اقل و اللي 295 00:24:49,400 --> 00:24:53,220 بعد اقل جاء بتنقص هذا الكلام مش معناته معناته لما 296 00:24:53,220 --> 00:24:58,800 انا بقى اخد الفرق من تلاتة نقص اربعة بيطلع نقص 297 00:24:58,800 --> 00:25:02,220 واحد اربعة نقص خمسة بيطلع نقص واحددائما .. دائما 298 00:25:02,220 --> 00:25:09,020 .. دائما الفرق .. دائما الفرق اشارته بالسلب وهنا 299 00:25:09,020 --> 00:25:13,620 نفس الاشي برضه سواء كان هو صعودا او هبوطا لما انا 300 00:25:13,620 --> 00:25:17,500 اجي اقول مثلا هذه عشرة و لبعدها تسعة و لبعدها 301 00:25:17,500 --> 00:25:21,800 تمانية عشر اناقص تسعة واحد تسعة اناقص تمانية واحد 302 00:25:21,800 --> 00:25:29,120 فالفرق دائما اشارته موجبة هنا دائما اشارته السلبة 303 00:25:31,690 --> 00:25:37,390 إذا دايما هيك .. إذا دايما .. إذا ال change of the 304 00:25:37,390 --> 00:25:42,510 sum of square .. change .. ال change .. التغير 305 00:25:42,510 --> 00:25:45,510 يعني هنا من عشر إلى تسعة و تسعة إذا دايما هذا ال 306 00:25:45,510 --> 00:25:49,130 change .. كيف أنا بحسب ال change؟ باخد الفرق إذا 307 00:25:49,130 --> 00:25:54,310 دايما هذا الفرق بحافظ على نفس ال signنفس الإشارة 308 00:25:54,310 --> 00:25:58,190 اما دايما موجبة او دايما سالبة يبقى انا في عندي 309 00:25:58,190 --> 00:26:03,250 اضطراد انا في عندي حاجة اسمها ال .. ال .. ال .. ال 310 00:26:03,250 --> 00:26:05,830 .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. 311 00:26:05,830 --> 00:26:06,070 ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال 312 00:26:06,070 --> 00:26:06,150 .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. 313 00:26:06,150 --> 00:26:06,370 ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال 314 00:26:06,370 --> 00:26:06,690 .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. 315 00:26:06,690 --> 00:26:07,830 ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال 316 00:26:07,830 --> 00:26:07,950 .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. 317 00:26:07,950 --> 00:26:11,010 ال .. ال .. ال .. ال .. ال .. ال .. ال .. 318 00:26:11,010 --> 00:26:15,430 .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. 319 00:26:15,430 --> 00:26:20,430 ال .. 320 00:26:20,430 --> 00:26:26,230 ال .. الفي ال square في sum of square errors يبقى 321 00:26:26,230 --> 00:26:33,570 أنا المفروض أسرع أزيد ال alpha فإذا كان اختصر هذا 322 00:26:33,570 --> 00:26:39,770 ال linguistic كالتالي إذا كانت ال sign of sum of 323 00:26:39,770 --> 00:26:42,570 square errors ولا حد الاختصار 324 00:26:51,530 --> 00:26:54,230 و بعدها كلمة stable ايش هان stable؟ يعني مافيش 325 00:26:54,230 --> 00:26:59,310 فيها تذبذب مش مرة زائد و مرة ناقص يعني مش انه مرة 326 00:26:59,310 --> 00:27:05,390 تلاقي هيك هنا الفرق هذا ناقص هذا سالب سالب بعد هيك 327 00:27:05,390 --> 00:27:09,710 الفرق صار موجب مظبوط؟ هنا مافيش فرق هنا صار سالب 328 00:27:09,710 --> 00:27:13,110 سالب سالب هنا موجب هذا تذبذب في ايش؟ في ال sign 329 00:27:13,110 --> 00:27:21,150 إذا كان ال sign is stable فإيش بسوي increase alpha 330 00:27:22,950 --> 00:27:25,930 ألفة اللي هي learning rate وشوفتها في واحدة من 331 00:27:25,930 --> 00:27:30,210 الأمثلة كانت 0.1 increase يعني بخليها 0.2 مثلا 332 00:27:30,210 --> 00:27:36,270 بخليها 0.3 او بقيت و بقول بدي اضربها دايما بيزيدها 333 00:27:36,270 --> 00:27:43,910 ب 5% يعني 0.1 بدي أثير 0.105 يعني بخلي بمخصر أن 334 00:27:43,910 --> 00:27:51,070 ألفة تساوي ألفة ضرب واحد هذا معناته بيزيدها ب 5% 335 00:27:52,090 --> 00:27:57,250 ممكن أقول لأ ده زي ده 15% ممكن أقول ده زي ده 25% 336 00:27:57,250 --> 00:28:02,350 المهم أنا بقى أثبت ليه نسبة زيادة امتى بتزيد امتى 337 00:28:02,350 --> 00:28:05,290 بقى طابت ده الكلام لما قاللي انه ال sign ثابت 338 00:28:05,290 --> 00:28:12,790 العكس من ذلك إذا ال algebraic sign of ال change ال 339 00:28:12,790 --> 00:28:16,950 change اللي هو يعني مقصود يتغير في ال alternates 340 00:28:16,950 --> 00:28:21,190 session alternates يتذبذب مرة أخر مرة موجة مرة 341 00:28:21,190 --> 00:28:25,760 سالباللي هو معناه ذلك .. معناه ذلك في عندي ال .. 342 00:28:25,760 --> 00:28:31,620 ال network مرة بتقترب .. مرة بتقترب و بجل ال error 343 00:28:31,620 --> 00:28:36,780 و مرة بتبعد فجيها غيرت الأوزان بشكل كبير صار يطلع 344 00:28:36,780 --> 00:28:41,570 معاها error و بعدين كانت مقتربة، بس إيش؟التغيير 345 00:28:41,570 --> 00:28:45,550 اللي حصل كان تغيير كبير في الأوزان خلها تفشج عن .. 346 00:28:45,550 --> 00:28:50,290 زي ما هم بيقولها تخطي الصواب و صارت الاش تبعد و 347 00:28:50,290 --> 00:28:54,430 بعدين صارت تترد تاني بس لما ردت مارجعتش على الصواب 348 00:28:54,430 --> 00:28:57,890 فشجت عنه ب .. فصار .. فإيش فيه مشكلة؟ المشكلة أنها 349 00:28:57,890 --> 00:29:01,450 بتخطي خطوات واسعة فانا بضيق الخطوات هذه كيف بضيق 350 00:29:01,450 --> 00:29:08,770 الخطوات؟ بنزل الاش ال alpha ال learning rate فإذا 351 00:29:08,770 --> 00:29:19,460 كان ال signخلاص فأقول S إذا هي مش stable sign 352 00:29:19,460 --> 00:29:25,700 of SSE alternates 353 00:29:25,700 --> 00:29:29,960 معناه 354 00:29:29,960 --> 00:29:34,880 ذلك decrease الألف 355 00:29:34,880 --> 00:29:39,830 decrease الألف برضه يكون عندي كمانبتقدر تتخيل يعني 356 00:29:39,830 --> 00:29:48,910 هنا هو مثلا ال decrease 357 00:29:48,910 --> 00:29:56,070 بأنه بضربها ب 70% ب 7 من 10 يعني بنزلها 30% تمام و 358 00:29:56,070 --> 00:30:03,790 ال increase بضربها في 1 و 5 من 100 واضح تمام فهنا 359 00:30:03,790 --> 00:30:10,570 بوريلك كيف انه هايالـ Epochs ماشية و في ده ال دي 360 00:30:10,570 --> 00:30:18,250 ال learning rate قاعد بتساعد نتيجة تطبيق إيش؟ هذي 361 00:30:18,250 --> 00:30:23,250 تمام؟ قاعد بيحسب لجأ أنه ال error ال software 362 00:30:23,250 --> 00:30:26,810 errors قاعد في النازل صح في النازل يعني إشارته 363 00:30:26,810 --> 00:30:32,170 دايما موجبة مظبوط؟ بقى أطرح السابق و بقى أطرح منه 364 00:30:32,170 --> 00:30:37,960 اللاحق و طلعت موجب فهو بسبب أنه هذا موجبالتغير 365 00:30:37,960 --> 00:30:44,780 موجب اه التغير موجب فهو عمار بيرفع في ليش في اللي 366 00:30:44,780 --> 00:30:49,000 عند حد معين جلب 367 00:30:49,000 --> 00:30:53,540 ال ال 368 00:30:53,540 --> 00:30:59,840 alphaبدأت تنزل و نزولها لأن وضعها في 0.7 النزول 369 00:30:59,840 --> 00:31:04,000 أسرع أو أحد من الصعود صعود تدريج بسيط 5% كل مرة 370 00:31:04,000 --> 00:31:11,240 انما هنا 30% كل مرة فبدأت تنزل نزلة جامدة مين هي 371 00:31:11,240 --> 00:31:14,980 اللي هو ال learning rate نزل نزل جامدة مع النزلة 372 00:31:14,980 --> 00:31:20,640 هذه بدأ يقترب من ايش من بوريلك فعلية هذا الأسلوب 373 00:31:20,640 --> 00:31:22,440 في الاقتراب من 374 00:31:25,600 --> 00:31:33,420 من ال error المخفض بوقت أقل 100 epoch بدلا من 126 375 00:31:33,420 --> 00:31:39,920 epoch هذا 376 00:31:39,920 --> 00:31:45,280 الأن استخدم ال momentum مع برضه هذه الهيروستيك 377 00:31:45,280 --> 00:31:48,960 اقبال adaptive ايش يعني adaptive يعني لما نقول 378 00:31:48,960 --> 00:31:53,100 adapter ايش يعني adapter يعني محولadaptive يعني 379 00:31:53,100 --> 00:31:58,260 أنه يتحول ويغير من تلقاء نفسه ماهو اللي بتغير من 380 00:31:58,260 --> 00:32:02,240 تلقاء نفسه ال learning rate لوحده بناء على 381 00:32:02,240 --> 00:32:07,980 استشعاره لل sign تبعت من ال sum of square arrows 382 00:32:07,980 --> 00:32:12,180 هو نفسه من تلقاء نفسها ال network بتغير في ال 383 00:32:12,180 --> 00:32:15,460 learning rate تبعها عشان ذلك اسم هذا الكلام 384 00:32:15,460 --> 00:32:19,680 adaptive learning فلما اندمج ال two techniques ال 385 00:32:19,680 --> 00:32:26,480 adaptive learning مع علمmomentum صار عندي اختصار 386 00:32:26,480 --> 00:32:32,160 لسه اكتر صرنا بنصل الى 387 00:32:32,160 --> 00:32:35,780 ال zero 388 00:32:35,780 --> 00:32:41,280 تقريبا error ومعناه مش zero هذا الكلام واحد اص نقص 389 00:32:41,280 --> 00:32:45,580 اشهر اص نقص ثلاث يعني واحد من الألف يعني مش zero 390 00:32:46,700 --> 00:32:50,940 مابدناش بالظبط 00 يعني ممكن تبقى صعب جدا انه ال 391 00:32:50,940 --> 00:32:56,100 network تصل لل zero لكن ممكن نقبل بأنها تصل لواحد 392 00:32:56,100 --> 00:33:01,580 من الف error ال error يصل لواحد من الف صح طيب ماشي 393 00:33:01,580 --> 00:33:06,000 الحال okay الان هنا الكلام بيوصلنا لنهاية اللي 394 00:33:06,000 --> 00:33:08,920 حاكي عن ال back propagation networks ولكن لأسف 395 00:33:08,920 --> 00:33:14,460 ماقلش معنى وقت نبدأ في ال hub field ال hub field 396 00:33:14,460 --> 00:33:19,080 networkو ال BAM فبناخدهم في المحاضرة الجاية ان شاء 397 00:33:19,080 --> 00:33:23,900 الله تمام؟ يبقى احنا الآن عمليا باختصار المحاضرة 398 00:33:23,900 --> 00:33:28,940 اليوم كانت تكملة ل ال back propagation networks 399 00:33:28,940 --> 00:33:33,960 اللي هو واحد من أنواع ال unsupervised artificial 400 00:33:33,960 --> 00:33:36,680 neural networks المحاضرة الجاية ان شاء الله بنكمل 401 00:33:36,680 --> 00:33:39,940 النوعين التانيات اللي هو ال hot field و ال BAM 402 00:33:39,940 --> 00:33:46,360 اللي هو في واقع الأمر نوع واحد بس منه نسختينو إذا 403 00:33:46,360 --> 00:33:49,600 ضال معانا وجد نبدأ في ليش؟ في ال super .. في ال 404 00:33:49,600 --> 00:33:54,420 unsupervised .. في ال unsupervised artificial 405 00:33:54,420 --> 00:33:55,140 neural networks