|
1 |
|
00:00:05,250 --> 00:00:07,430 |
|
بسم الله والحمد لله والصلاة والسلام على رسول الله |
|
|
|
2 |
|
00:00:07,430 --> 00:00:11,930 |
|
اليوم إن شاء الله شباب، هنبدأ بـ Chapter جديد في الـ |
|
|
|
3 |
|
00:00:11,930 --> 00:00:15,070 |
|
data mining، وهنتكلم على أولى الـ data mining tasks |
|
|
|
4 |
|
00:00:15,070 --> 00:00:20,630 |
|
وهي الـ classification. الـ classification لكن قبل |
|
|
|
5 |
|
00:00:20,630 --> 00:00:24,150 |
|
ما أبدأ بالمحاضرة فعلياً، وبالـ slides، بدي أسأل أنا |
|
|
|
6 |
|
00:00:24,150 --> 00:00:26,270 |
|
إيش احنا بنقصد بالـ classification؟ |
|
|
|
7 |
|
00:00:44,700 --> 00:00:53,400 |
|
أه محمد، شو يعني classification؟ |
|
|
|
8 |
|
00:00:53,400 --> 00:00:56,580 |
|
بدي |
|
|
|
9 |
|
00:00:56,580 --> 00:00:59,060 |
|
أصنف.. شو يعني بدي أصنف؟ أيوة، أنا بدي أقول.. |
|
|
|
10 |
|
00:00:59,060 --> 00:01:04,700 |
|
بينهم شغلات مشتركة. |
|
|
|
11 |
|
00:01:04,700 --> 00:01:09,520 |
|
شو رايك؟ مشتركة؟ مرتّب، عفواً، بجسم الـ data على شكل |
|
|
|
12 |
|
00:01:09,520 --> 00:01:14,720 |
|
categories. بجسم الـ data على شكل categories، كريم. |
|
|
|
13 |
|
00:01:14,720 --> 00:01:20,040 |
|
بناءً على ترميز معيّنة، بعمل زي لِبْط بمثل الصدر أو كذا. |
|
|
|
14 |
|
00:01:20,040 --> 00:01:24,340 |
|
طيب، أنا قاعد بسأل شو يعني تصنيف بالعربي؟ شو يعني |
|
|
|
15 |
|
00:01:24,340 --> 00:01:30,220 |
|
تصنيف شغلات بينها أو في عناصر، فيها عناصر مشتركة. |
|
|
|
16 |
|
00:01:30,220 --> 00:01:38,040 |
|
عمار، شو يعني تصنيف؟ تقسيم العناصر إلى مجموعات. طيب. |
|
|
|
17 |
|
00:01:38,040 --> 00:01:42,200 |
|
شو يعني تصنيف يا راني؟ تصنيف شو يعني؟ |
|
|
|
18 |
|
00:01:47,010 --> 00:01:54,950 |
|
طيب، لو أنا جيت قلت لك، أه أحمد، تفضل. اعمل sub-class |
|
|
|
19 |
|
00:01:54,950 --> 00:02:00,410 |
|
بناءً على role معيّن، أو subset. طيب لو.. لو أنا جيت |
|
|
|
20 |
|
00:02:00,410 --> 00:02:09,330 |
|
قلت لكم عندي الآن قرصة كتب، مجموعة كتب، وبدنا نصنّفها. |
|
|
|
21 |
|
00:02:15,120 --> 00:02:19,440 |
|
إيش اسمك؟ إبراهيم. إبراهيم، أنا عارف، بعمل تساؤل لك. |
|
|
|
22 |
|
00:02:19,440 --> 00:02:26,500 |
|
سنّوار، حسب إيش بدي أصنّفها؟ ليش يا إبراهيم سألتني |
|
|
|
23 |
|
00:02:26,500 --> 00:02:32,420 |
|
السؤال هذا؟ عشان أنا أقدر.. طب إيش اللي بدك إياه مني |
|
|
|
24 |
|
00:02:32,420 --> 00:02:36,480 |
|
يا إبراهيم، عشان تقدر تصنّفها؟ |
|
|
|
25 |
|
00:02:36,480 --> 00:02:39,660 |
|
هو هو أنت صرت إبراهيم الآن؟ أيوة، إيش اللي بدك |
|
|
|
26 |
|
00:02:39,660 --> 00:02:42,960 |
|
يامني، عشان تقدر تصنّفها؟ حتى تقدر تحصر لي شغلات؟ |
|
|
|
27 |
|
00:02:45,760 --> 00:02:50,560 |
|
معلومات.. معلومات.. معلومات عن إيش؟ معلومات عن |
|
|
|
28 |
|
00:02:50,560 --> 00:02:54,680 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
29 |
|
00:02:54,680 --> 00:02:55,440 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
30 |
|
00:02:55,440 --> 00:02:56,680 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
31 |
|
00:02:56,680 --> 00:02:56,920 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
32 |
|
00:02:56,920 --> 00:02:58,800 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
33 |
|
00:02:58,800 --> 00:03:00,320 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
34 |
|
00:03:00,320 --> 00:03:02,840 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
35 |
|
00:03:02,840 --> 00:03:07,340 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن |
|
|
|
36 |
|
00:03:07,340 --> 00:03:10,880 |
|
أستراليا.. معلومات عن أستراليا.. معلومات عن أست |
|
|
|
37 |
|
00:03:12,100 --> 00:03:16,820 |
|
تمام؟ كان كله بيتكلم على clustering أو grouping. |
|
|
|
38 |
|
00:03:16,820 --> 00:03:21,720 |
|
لأن كلكم بتتكلموا، لمجموعات. أصنفهم لمجموعات، أصنفهم |
|
|
|
39 |
|
00:03:21,720 --> 00:03:27,360 |
|
لمجموعات. مش هيك أصنفهم. يعني في عندي predefined |
|
|
|
40 |
|
00:03:27,360 --> 00:03:32,220 |
|
sets. في عندي مجموعات معروفة مسبقاً، والمجموعات هذه |
|
|
|
41 |
|
00:03:32,220 --> 00:03:38,060 |
|
إلها عناوين، وأنت دورك تشوف هل العنصر هذا بيتوافق مع |
|
|
|
42 |
|
00:03:38,060 --> 00:03:41,440 |
|
المجموعة هذه ولا لأ، عشان تحطه تحتها. بينما اللي |
|
|
|
43 |
|
00:03:41,440 --> 00:03:44,840 |
|
كنتوا أنتم بتطرحوه، بتقول أنا بدي أدرس الخصائص |
|
|
|
44 |
|
00:03:44,840 --> 00:03:50,630 |
|
المشتركة بين الكتب، وأجسّمهم لمجموعات. هذا بيسمّيه |
|
|
|
45 |
|
00:03:50,630 --> 00:03:52,510 |
|
احنا في الـ data science أو في الـ data mining |
|
|
|
46 |
|
00:03:52,510 --> 00:03:57,230 |
|
clustering. يا تامر، بيسمّيه clustering أو grouping. |
|
|
|
47 |
|
00:03:57,230 --> 00:04:04,370 |
|
بينما للتصنيف، أنا بقعد فيه عندي مجموعات معرفة |
|
|
|
48 |
|
00:04:04,370 --> 00:04:08,350 |
|
مسبقاً، predefined |
|
|
|
49 |
|
00:04:08,350 --> 00:04:14,870 |
|
groups. ممكن |
|
|
|
50 |
|
00:04:14,870 --> 00:04:18,680 |
|
يكونوا أقل شيء، لازم يكونوا اثنتين. أجل، لازم يكونوا |
|
|
|
51 |
|
00:04:18,680 --> 00:04:23,600 |
|
مجموعتين، وبعدين هي بيجي دوري أنا، بشوف كل object |
|
|
|
52 |
|
00:04:23,600 --> 00:04:26,780 |
|
في الـ data set اللي عندي، أو كل object في الكتب |
|
|
|
53 |
|
00:04:26,780 --> 00:04:33,440 |
|
اللي عندي، بيندرج تحت أي مصنّف؟ تحت أي عنوان من |
|
|
|
54 |
|
00:04:33,440 --> 00:04:37,020 |
|
المجموعات هذه. لو أنا أجيت قلت لك يا همام، الكتب اللي |
|
|
|
55 |
|
00:04:37,020 --> 00:04:43,400 |
|
عندي أنا إما science أو politics أو financial أو |
|
|
|
56 |
|
00:04:43,400 --> 00:04:45,020 |
|
literature، أدب. |
|
|
|
57 |
|
00:04:47,290 --> 00:04:54,550 |
|
اقتصاد، سياسة، علوم، شوف كيف تساوي وعندك مجموعة |
|
|
|
58 |
|
00:04:54,550 --> 00:04:59,950 |
|
الكتب مثل ما هي مكدسة قدامي، شو هتعمل؟ كيف؟ ماشي، |
|
|
|
59 |
|
00:04:59,950 --> 00:05:09,560 |
|
هتفرزهم الآن، شو هتسوي؟ هتمسك كل كتاب.. كمل، على |
|
|
|
60 |
|
00:05:09,560 --> 00:05:12,820 |
|
الأقل أعرف الموضوع اللي بيتكلم فيه الكتاب، يعني |
|
|
|
61 |
|
00:05:12,820 --> 00:05:18,400 |
|
مثلاً كتاب بتكلم عن الاحتلال الإنجليزي لشرق آسيا، |
|
|
|
62 |
|
00:05:18,400 --> 00:05:26,760 |
|
مثلاً بتصنّفه سياسة ولا تاريخ، literature حسب الكتاب |
|
|
|
63 |
|
00:05:26,760 --> 00:05:30,500 |
|
عن إيش بتكلم؟ هل بتكلم مثلاً رؤية سياسية ولا |
|
|
|
64 |
|
00:05:30,500 --> 00:05:34,480 |
|
بتكلم مجرد سرد تاريخي للموضوع، الاحتلال على |
|
|
|
65 |
|
00:05:34,480 --> 00:05:37,620 |
|
التاريخ. جيت وجيت والله، كتاب بتكلم على الـ second |
|
|
|
66 |
|
00:05:37,620 --> 00:05:38,240 |
|
derivative. |
|
|
|
67 |
|
00:05:41,020 --> 00:05:45,180 |
|
Science. لجيت كتاب بتكلم عن الـ poems أو الشعر، |
|
|
|
68 |
|
00:05:45,180 --> 00:05:48,800 |
|
literature. مظبوط؟ هيك صار في عندي أنا الآن |
|
|
|
69 |
|
00:05:48,800 --> 00:05:52,860 |
|
باستخدام الـ knowledge تبعتي، تمام؟ ومعرفتي |
|
|
|
70 |
|
00:05:52,860 --> 00:05:58,370 |
|
بالمجموعات السابقة، بالمجموعات السابقة اللي موجودة |
|
|
|
71 |
|
00:05:58,370 --> 00:06:02,010 |
|
عندي، وبروح إيش بصير؟ آخذ كل كتاب أو كل object |
|
|
|
72 |
|
00:06:02,010 --> 00:06:06,230 |
|
بقرّن الخصائص تبعته، أو بحاول أطلع، أعرف عن إيش بتكلم |
|
|
|
73 |
|
00:06:06,230 --> 00:06:10,910 |
|
الكتاب هذا، وبروح بصنّفه لحاله، بحطه تحت مجموعة أو |
|
|
|
74 |
|
00:06:10,910 --> 00:06:16,170 |
|
تحت أي مجموعة من العناصر اللي موجودة. عامّة، تمام؟ |
|
|
|
75 |
|
00:06:16,170 --> 00:06:22,010 |
|
فمعناته الـ classification هي عضوية المجموعات |
|
|
|
76 |
|
00:06:22,010 --> 00:06:25,950 |
|
predefined groups، مجموعات معروفة مسبقاً، وبدي أحدّد |
|
|
|
77 |
|
00:06:25,950 --> 00:06:31,030 |
|
مين العناصر، تمام، اللي ممكن يكونوا تحت المجموعة |
|
|
|
78 |
|
00:06:31,030 --> 00:06:36,970 |
|
اللي عندي الآن. بيفرق عن التقسيم أو الـ clustering. |
|
|
|
79 |
|
00:06:36,970 --> 00:06:42,840 |
|
لو قلت للشباب، أنا بدي أجسّمكم لمجموعات، تمام؟ شغلات |
|
|
|
80 |
|
00:06:42,840 --> 00:06:45,480 |
|
كتيرة ممكن تكون مشتركة، أو شغلات كتيرة ممكن تكون |
|
|
|
81 |
|
00:06:45,480 --> 00:06:49,840 |
|
مختلفة بينكم. عشان لو رحت أنا قلت، بجسّمكم تبع الـ |
|
|
|
82 |
|
00:06:49,840 --> 00:06:56,300 |
|
.. سنة الميلاد، تمام؟ لاحظ أنا في كل الكلام اللي |
|
|
|
83 |
|
00:06:56,300 --> 00:07:02,620 |
|
أنا بقوله، ما لي أي control على.. على عدد |
|
|
|
84 |
|
00:07:02,620 --> 00:07:05,760 |
|
المجموعات. بينما في الـ cluster.. في الـ |
|
|
|
85 |
|
00:07:05,760 --> 00:07:11,400 |
|
classification، عدد المجموعات. طبعاً، بدي أجسّمكم تبعاً |
|
|
|
86 |
|
00:07:11,400 --> 00:07:16,100 |
|
لتاريخ ميلادكم، لسنة الميلاد. كل ناس مولودين في سنة |
|
|
|
87 |
|
00:07:16,100 --> 00:07:20,840 |
|
هذول بيكونوا مجموعة لحالهم. طب لجيت واحد لحاله، أه |
|
|
|
88 |
|
00:07:20,840 --> 00:07:28,040 |
|
هذا، بدوني أعمل مجموعة، ما عنديش مشكلة في الموضوع، لأ. |
|
|
|
89 |
|
00:07:28,040 --> 00:07:34,940 |
|
ممكن أسخّر الـ clustering لخدمة الـ classification. ممكن |
|
|
|
90 |
|
00:07:34,940 --> 00:07:39,240 |
|
أسخّر الـ clustering لخدمة الـ classification، وهذا |
|
|
|
91 |
|
00:07:39,240 --> 00:07:43,240 |
|
بنسميه عادةً semi-supervised learning. إن أنا فعلياً |
|
|
|
92 |
|
00:07:43,240 --> 00:07:47,480 |
|
عندي بعض الـ data، بعض الـ data labeled، وبعض الـ |
|
|
|
93 |
|
00:07:47,480 --> 00:07:51,560 |
|
data.. وكمّ كبير من الـ data unlabeled. فبروح |
|
|
|
94 |
|
00:07:51,560 --> 00:07:56,580 |
|
بجسّمهم لأربع مجموعات حسب معرفتي من هنا، وبطلع في كل |
|
|
|
95 |
|
00:07:56,580 --> 00:08:00,560 |
|
cluster، كل مجموعة، إيش الأكثر عناصر من الـ الـ هم |
|
|
|
96 |
|
00:08:00,560 --> 00:08:03,600 |
|
label، وبسمّيه، بطلق عليه، وبخلي الـ bag كله، ماشي؟ |
|
|
|
97 |
|
00:08:03,600 --> 00:08:08,260 |
|
يحملوا نفس الصفة. أجيت أقول بدي أصنفكم تبعاً |
|
|
|
98 |
|
00:08:08,260 --> 00:08:09,560 |
|
لمعدلاتكم. |
|
|
|
99 |
|
00:08:12,460 --> 00:08:15,200 |
|
واحد يقول يا دكتور، ما هو معروف، المعدلات تسعين وفوق |
|
|
|
100 |
|
00:08:15,200 --> 00:08:22,200 |
|
من ثمانين لتسعين، okay. بس لاحظ أنا ما اتكلمت على كل |
|
|
|
101 |
|
00:08:22,200 --> 00:08:26,000 |
|
اسم مجموعة. المجموعات هذه ما لها أسامي، مش معرفة |
|
|
|
102 |
|
00:08:26,000 --> 00:08:31,280 |
|
بالنسبة لي مسبقاً. تبع أوزانكم، أطوالكم، تمام؟ كل |
|
|
|
103 |
|
00:08:31,280 --> 00:08:34,740 |
|
الشغلات هذه، عاملة جماعة. بتتكلم على مجموعات، على |
|
|
|
104 |
|
00:08:34,740 --> 00:08:38,720 |
|
مجموعات، وبعدين هيك بنصير إما بحدّد الخاصية وبشغل، أو |
|
|
|
105 |
|
00:08:38,720 --> 00:08:42,440 |
|
بروح بقول لشبابنا، نجسّم لمجموعتين، لثلاث مجموعات، و |
|
|
|
106 |
|
00:08:42,440 --> 00:08:45,860 |
|
بصير أدوّر على الـ common properties اللي تجمعكم مع |
|
|
|
107 |
|
00:08:45,860 --> 00:08:51,860 |
|
بعض. لكن إيش الصفة السائدة لكل مجموعة؟ ما نعرفش |
|
|
|
108 |
|
00:08:51,860 --> 00:08:55,580 |
|
لاحقاً. بدنا نصير نفكّر، ندوّر بعنوان. بينما بالـ |
|
|
|
109 |
|
00:08:55,580 --> 00:08:59,340 |
|
classification، أنا عندي التصنيفات موجودة عندي |
|
|
|
110 |
|
00:08:59,340 --> 00:09:05,320 |
|
مستويات الطلاب موجودة: ممتاز، جيد جداً، جيد، مقبول؟ هذه |
|
|
|
111 |
|
00:09:05,320 --> 00:09:08,920 |
|
التصنيفات اللي موجودة عندي الآن. درجة الرطوبة إما |
|
|
|
112 |
|
00:09:08,920 --> 00:09:13,960 |
|
هتكون عالية أو متوسطة أو منخفضة. الجو إما هيكون |
|
|
|
113 |
|
00:09:13,960 --> 00:09:18,860 |
|
غائم أو غائم جزئياً أو صافي، تمام؟ اليوم إما هيكون |
|
|
|
114 |
|
00:09:18,860 --> 00:09:22,420 |
|
ماطر أو هيكون غير ماطر. هذه المعلومات أو هذه الـ |
|
|
|
115 |
|
00:09:22,420 --> 00:09:22,860 |
|
categories. |
|
|
|
116 |
|
00:09:29,580 --> 00:09:33,860 |
|
بتكلم على category كمجموعات إلها صفات مشتركة محددة |
|
|
|
117 |
|
00:09:33,860 --> 00:09:38,040 |
|
وواضحة، وإلها اسم. فهنا احنا بنتكلم على تصنيف |
|
|
|
118 |
|
00:09:38,040 --> 00:09:43,860 |
|
classification. إيش اللي احنا بنتعلمه في الـ chapter |
|
|
|
119 |
|
00:09:43,860 --> 00:09:44,380 |
|
هذا؟ |
|
|
|
120 |
|
00:10:02,660 --> 00:10:06,840 |
|
إيش بتتوقع إن احنا نتعلم في الـ chapter هذا الآن؟ |
|
|
|
121 |
|
00:10:06,840 --> 00:10:18,980 |
|
كيف أقدر أعرف المجموعات؟ مش صحيح، أيوة، أتعرف |
|
|
|
122 |
|
00:10:18,980 --> 00:10:24,340 |
|
على التقنيات اللي بتستخدم في التصنيف، غيره. طبعاً هذا |
|
|
|
123 |
|
00:10:24,340 --> 00:10:29,700 |
|
حتكلم، شغل مكتبات أو شغل ناس شغّالة في المجال. غير، |
|
|
|
124 |
|
00:10:29,700 --> 00:10:34,050 |
|
أه حسن، إيش بتتوقع أن أبدأ أتعلم الفصل هذا، أو |
|
|
|
125 |
|
00:10:34,050 --> 00:10:38,450 |
|
الشابتر هذا؟ |
|
|
|
126 |
|
00:10:38,450 --> 00:10:44,170 |
|
كيف المكتبات بتعمل؟ إيش المبدأ اللي بتشتغل عليه؟ |
|
|
|
127 |
|
00:10:44,170 --> 00:10:48,470 |
|
أه أحمد، إيش ممكن أتوقع أن أتعلم الفصل هذا، الشابتر |
|
|
|
128 |
|
00:10:48,470 --> 00:10:52,430 |
|
هذا؟ على أي أساس أصنف؟ |
|
|
|
129 |
|
00:10:56,620 --> 00:11:00,240 |
|
أديب، الشغلات المشتركة بين الـ instances أو الـ |
|
|
|
130 |
|
00:11:00,240 --> 00:11:07,980 |
|
objects، عشان أقدر أصنفها. أقدر أفرّق بين إيش؟ بين الـ |
|
|
|
131 |
|
00:11:07,980 --> 00:11:13,180 |
|
objects أو بين جُثتين. أتعرف على الخصائص تبع كل |
|
|
|
132 |
|
00:11:13,180 --> 00:11:19,480 |
|
مجموعة، عشان أقدر أحدد لـ new objects أو الـ unseen |
|
|
|
133 |
|
00:11:19,480 --> 00:11:23,900 |
|
samples بتنتمي لأي مجموعة. بس فعلياً، مش أنا اللي |
|
|
|
134 |
|
00:11:23,900 --> 00:11:29,680 |
|
هشتغل. الـ Machine، الفكرة الآن لما نتكلم على |
|
|
|
135 |
|
00:11:29,680 --> 00:11:32,560 |
|
Classification، هنبدأ نتكلم على Machine Learning |
|
|
|
136 |
|
00:11:32,560 --> 00:11:37,160 |
|
Algorithm. هنبدأ نتكلم على تعلم الآلة، أو تعلم.. |
|
|
|
137 |
|
00:11:37,160 --> 00:11:40,840 |
|
تعلم الآلة. كيف الآلة بتدور على الـ characteristics |
|
|
|
138 |
|
00:11:40,840 --> 00:11:45,320 |
|
المشتركة لكل مجموعة. الآن بما أن الـ classification |
|
|
|
139 |
|
00:11:45,320 --> 00:11:50,380 |
|
هي واحدة من supervised learning methods. احنا كنا |
|
|
|
140 |
|
00:11:50,380 --> 00:11:54,300 |
|
حكينا المرة الماضية، الـ data mining tasks نوعين: |
|
|
|
141 |
|
00:11:55,310 --> 00:11:59,690 |
|
Predictive و Descriptive. في الـ Predictive، قلت أنا |
|
|
|
142 |
|
00:11:59,690 --> 00:12:03,430 |
|
فيه Classification، وبدي أتنبأ بـ category، بدي أتنبأ |
|
|
|
143 |
|
00:12:03,430 --> 00:12:07,310 |
|
بالـ target label تبع المجموعة. وفي عندي Regression، |
|
|
|
144 |
|
00:12:07,310 --> 00:12:11,490 |
|
بدي أتنبأ بـ continuous value، بـ قيمة، وقلنا في الـ |
|
|
|
145 |
|
00:12:11,490 --> 00:12:15,670 |
|
Descriptive، في الوصفية، إما بتكلم على Clustering، |
|
|
|
146 |
|
00:12:15,670 --> 00:12:20,770 |
|
تقسيم لمجموعات، أو Outlier Detection، تحديد الشوائب، |
|
|
|
147 |
|
00:12:20,770 --> 00:12:27,070 |
|
أو الـ Association Rules، تحديد العلاقات ما بين |
|
|
|
148 |
|
00:12:27,070 --> 00:12:34,350 |
|
العناصر اللي موجودة. الآن، ضمن الكلام هذا، أنا هتعرف |
|
|
|
149 |
|
00:12:34,350 --> 00:12:37,630 |
|
على مجموعة من الـ algorithms، والخوارزميات اللي |
|
|
|
150 |
|
00:12:37,630 --> 00:12:45,450 |
|
بتستخدمها من أجل استنباط خصائص المجموعات المعرفة |
|
|
|
151 |
|
00:12:45,450 --> 00:12:51,390 |
|
مسبقاً، اللي موجودة عندي في الـ data. ومن ثم، لما بدي |
|
|
|
152 |
|
00:12:51,390 --> 00:12:55,000 |
|
أجي أعمل prediction، بدي تديني الـ prediction، أو بدي |
|
|
|
153 |
|
00:12:55,000 --> 00:12:58,740 |
|
تديني الـ category أو الـ group، أو اسم المجموعة اللي |
|
|
|
154 |
|
00:12:58,740 --> 00:13:01,540 |
|
بينتمي إليها الـ object الجديد هذا، اللي هو الـ |
|
|
|
155 |
|
00:13:01,540 --> 00:13:06,640 |
|
unseen object أو unseen instance. يعني فعلياً أنا |
|
|
|
156 |
|
00:13:06,640 --> 00:13:09,840 |
|
بدي أشوف الآلة كيف اللي بتتعلم. طب أنا وين في |
|
|
|
157 |
|
00:13:09,840 --> 00:13:14,400 |
|
الموضوع؟ أنت دورك، جهّزت البيانات، بدك تختار algorithm |
|
|
|
158 |
|
00:13:14,400 --> 00:13:18,100 |
|
كويس، وتقول للـ algorithm، اقرأ البيانات، وتعلّم منها. |
|
|
|
159 |
|
00:13:18,100 --> 00:13:23,160 |
|
تعمل evaluation، قبل ما تقول أنا صار فيه عندي model |
|
|
|
160 |
|
00:13:23,160 --> 00:13:26,280 |
|
بيقدر يعمل prediction للـ category أو للـ class اللي |
|
|
|
161 |
|
00:13:26,280 --> 00:13:34,320 |
|
موجود عندها. الـ classification |
|
|
|
162 |
|
00:13:34,320 --> 00:13:39,020 |
|
هي |
|
|
|
163 |
|
00:13:39,020 --> 00:13:41,840 |
|
واحدة من الـ mining tasks أو الـ data mining tasks |
|
|
|
164 |
|
00:13:41,840 --> 00:13:46,140 |
|
التقليدية. الـ task يعني من أهم أو من أكثر الـ tasks |
|
|
|
165 |
|
00:13:46,140 --> 00:13:52,520 |
|
شهرةً. لـ classification، وطبعاً ممتدّة أساساً بالـ |
|
|
|
166 |
|
00:13:52,520 --> 00:13:55,060 |
|
Machine Learning. عادة الـ Machine Learning |
|
|
|
167 |
|
00:13:55,060 --> 00:13:58,880 |
|
Algorithms، الشباب، بشكل عام، أو التقنيات بتشتغل ضمن |
|
|
|
168 |
|
00:13:58,880 --> 00:14:04,860 |
|
منهجيات معيّنة. الأولى، أنه فعلياً، هل الـ Machine |
|
|
|
169 |
|
00:14:04,860 --> 00:14:08,940 |
|
Learning هذه بتتدرّب أو بتتعلم من خلال الـ Human |
|
|
|
170 |
|
00:14:08,940 --> 00:14:15,200 |
|
Supervision، من خلال مراقبة الإنسان، أو إشراف الإنسان. |
|
|
|
171 |
|
00:14:15,200 --> 00:14:19,280 |
|
الفكرة كالتالي: ما ينفعش أنا أروح أقول للطلاب في |
|
|
|
172 |
|
00:14:19,280 --> 00:14:23,900 |
|
المدرسة هذه، مجموعة الكتب، أروح أدخّلهم في الصف الآن |
|
|
|
173 |
|
00:14:23,900 --> 00:14:27,660 |
|
من العاشرة للحادية عشرة، عليكم عربي، ادرسوا كتاب العربي |
|
|
|
174 |
|
00:14:27,660 --> 00:14:35,260 |
|
بدون ما يكون عندهم |
|
|
|
223 |
|
00:18:05,560 --> 00:18:10,260 |
|
batch learning كذلك في عندي الـ trend في الـ machine |
|
|
|
224 |
|
00:18:10,260 --> 00:18:14,240 |
|
learning هل هي model-based ولا instance-based |
|
|
|
225 |
|
00:18:14,240 --> 00:18:19,860 |
|
model-based يعني هيروح يبني model، هيروح يبني موديل |
|
|
|
226 |
|
00:18:19,860 --> 00:18:24,680 |
|
هو اللي بديه يعمل prediction لاحقاً، بينما بالـ |
|
|
|
227 |
|
00:18:24,680 --> 00:18:28,700 |
|
instance-based في كل مرة بديه يعمل prediction بديه |
|
|
|
228 |
|
00:18:28,700 --> 00:18:34,620 |
|
يرجع للـ data الأصلية، وطبعاً هدول الشغلتين لكل |
|
|
|
229 |
|
00:18:34,620 --> 00:18:39,480 |
|
واحدة فيه إيجابياتها وإليها سلبياتها، كذلك في |
|
|
|
230 |
|
00:18:39,480 --> 00:18:43,040 |
|
trend آخر فيه deterministic وفيه probabilistic |
|
|
|
231 |
|
00:18:43,040 --> 00:18:47,390 |
|
approach في الـ learning، في الـ deterministic اللي |
|
|
|
232 |
|
00:18:47,390 --> 00:18:51,610 |
|
هو الدقيق أو الموحد، أن الـ algorithm هذا مع الـ |
|
|
|
233 |
|
00:18:51,610 --> 00:18:56,370 |
|
input هذا لو عدته خمسة آلاف مرة، لو عدته مليون مرة |
|
|
|
234 |
|
00:18:56,370 --> 00:19:01,070 |
|
هيديني نفس النتيجة، محدد، بينما في الـ probabilistic |
|
|
|
235 |
|
00:19:01,070 --> 00:19:04,310 |
|
طبعاً في الـ deterministic مافيش عندي مجالة |
|
|
|
236 |
|
00:19:04,310 --> 00:19:09,240 |
|
randomness، مافيش مجالة عشوائية، كله شغال ضمن قيم |
|
|
|
237 |
|
00:19:09,240 --> 00:19:12,580 |
|
حقيقية موجودة بين إيدينا، بينما في الـ |
|
|
|
238 |
|
00:19:12,580 --> 00:19:15,720 |
|
probabilistic approach بيعتمد على الـ randomness |
|
|
|
239 |
|
00:19:15,720 --> 00:19:18,660 |
|
لأنه بياخد sample من الـ population وبيصير.. ممكن |
|
|
|
240 |
|
00:19:18,660 --> 00:19:23,180 |
|
تتغير.. عفواً، النتيجة تتغير ما بين مرة والتانية |
|
|
|
241 |
|
00:19:23,180 --> 00:19:26,200 |
|
بشكل |
|
|
|
242 |
|
00:19:26,200 --> 00:19:28,880 |
|
عام، احنا بنتكلم على الـ supervised learning و |
|
|
|
243 |
|
00:19:28,880 --> 00:19:34,050 |
|
بالتحديد الـ classification، الآن supervision زي ما |
|
|
|
244 |
|
00:19:34,050 --> 00:19:37,870 |
|
قلنا سابقاً، training data، الـ data set اللي أنا |
|
|
|
245 |
|
00:19:37,870 --> 00:19:49,150 |
|
اخترتها بتتكلم عن الـ heart disease، الـ |
|
|
|
246 |
|
00:19:49,150 --> 00:19:55,090 |
|
body mass index، الـ blocked artery، تصلب الشرايين، |
|
|
|
247 |
|
00:19:55,090 --> 00:20:04,810 |
|
قلم في الصدر، وفي الآخر التصنيف التبعي، هل هذا heart |
|
|
|
248 |
|
00:20:04,810 --> 00:20:11,790 |
|
disease؟ هل هذا مرض قلب؟ مرض قلب ولا لأ؟ yes و no، الـ |
|
|
|
249 |
|
00:20:11,790 --> 00:20:18,030 |
|
data set في جو زي اليوم، بتكلم الجو غائم، الـ outlook |
|
|
|
250 |
|
00:20:18,030 --> 00:20:24,790 |
|
cloudy، الـ temperature عشرة مثلاً أو اثنا عشر، الـ |
|
|
|
251 |
|
00:20:24,790 --> 00:20:32,600 |
|
humidity intermediate، متوسطة، الـ Windy، فيه رياح، بدي |
|
|
|
252 |
|
00:20:32,600 --> 00:20:38,720 |
|
أعمل، هل اليوم ماطر أو لأ؟ كـ category، كفئة، لاحظ أنا |
|
|
|
253 |
|
00:20:38,720 --> 00:20:43,400 |
|
الآن بتكلم هذه الـ label تبعتي، هي الـ target، هي الـ |
|
|
|
254 |
|
00:20:43,400 --> 00:20:47,140 |
|
group، الـ predefined group، إما هدول الـ instances |
|
|
|
255 |
|
00:20:47,140 --> 00:20:52,320 |
|
الـ data set مقسمين لمجموعتين، ناس مصابين بأمراض |
|
|
|
256 |
|
00:20:52,320 --> 00:20:58,190 |
|
القلب وناس غير مصابة، الجو أيام ماطرة وأيام غير |
|
|
|
257 |
|
00:20:58,190 --> 00:21:03,210 |
|
ماطرة، تصنيفات الطلاب جيد جداً أو ممتاز، جيد جداً، جيد، |
|
|
|
258 |
|
00:21:03,210 --> 00:21:07,210 |
|
مقبول، هذه التصنيفات الموجودة معروفة مسبقاً، وهذه |
|
|
|
259 |
|
00:21:07,210 --> 00:21:11,770 |
|
هتكون موجودة عندنا في الـ training set، هذه لازم تكون |
|
|
|
260 |
|
00:21:11,770 --> 00:21:16,530 |
|
عاملة combination ما بين الـ attributes اللي عندي |
|
|
|
261 |
|
00:21:16,530 --> 00:21:20,310 |
|
بالإضافة |
|
|
|
262 |
|
00:21:21,330 --> 00:21:25,310 |
|
الـ groups أو الـ predefined groups، يعني بين جثتين |
|
|
|
263 |
|
00:21:25,310 --> 00:21:34,190 |
|
محدد له بشكل دقيق، كل raw بيتبع أي مجموعة، تمام؟ كل |
|
|
|
264 |
|
00:21:34,190 --> 00:21:39,870 |
|
raw بيتبع أي مجموعة، وعادة هذه بنسميها احنا |
|
|
|
265 |
|
00:21:39,870 --> 00:21:45,990 |
|
training data، training data، فالـ classification هي |
|
|
|
266 |
|
00:21:45,990 --> 00:21:53,400 |
|
مهمتها تعمل predict categorial class label، تتنبأ |
|
|
|
267 |
|
00:21:53,400 --> 00:21:59,360 |
|
بالفئة، باسم الفئة تبعتها، تبعت المجموعات، للـ |
|
|
|
268 |
|
00:21:59,360 --> 00:22:03,160 |
|
unseen data، طبعاً الـ class label هذا إما بيكون |
|
|
|
269 |
|
00:22:03,160 --> 00:22:10,460 |
|
discrete أو بيكون nominal، شو يعني nominal data؟ |
|
|
|
270 |
|
00:22:10,460 --> 00:22:15,620 |
|
text.. text.. text.. تمام؟ طب شو يعني discrete |
|
|
|
271 |
|
00:22:15,620 --> 00:22:20,450 |
|
data؟ قيم منفصلة عن بعضها، هي فعلياً ظاهرها |
|
|
|
272 |
|
00:22:20,450 --> 00:22:24,690 |
|
continuous، عشر، عشرين، ثلاثين، تمام؟ ولما بتروح |
|
|
|
273 |
|
00:22:24,690 --> 00:22:27,630 |
|
يعمل الـ prediction هو بتقول أما عشرة أو عشرين أو |
|
|
|
274 |
|
00:22:27,630 --> 00:22:30,570 |
|
ثلاثين، مالهاش علاقة بالأرقام أو العلاقة بالحساب |
|
|
|
275 |
|
00:22:30,570 --> 00:22:36,670 |
|
مطلقاً، الآن في |
|
|
|
276 |
|
00:22:36,670 --> 00:22:39,570 |
|
الـ classification هيبني prediction model عشان |
|
|
|
277 |
|
00:22:39,570 --> 00:22:43,410 |
|
يتنبأ بالـ discrete values اللي موجودة عندها، تعالى |
|
|
|
278 |
|
00:22:43,410 --> 00:22:49,530 |
|
نشوف الصورة هاي، أو بلاش، قبل ما نروح على الصورة هاي |
|
|
|
279 |
|
00:22:49,530 --> 00:22:53,010 |
|
عشان أنا بقى أظل أقول Model Model Model Model شو |
|
|
|
280 |
|
00:22:53,010 --> 00:23:06,790 |
|
يعني Model؟ نموذج، نموذج، تمام، وشو |
|
|
|
281 |
|
00:23:06,790 --> 00:23:11,250 |
|
يعني نموذج؟ تصور، تصور، تصور، تصور، تصور، تصور، |
|
|
|
282 |
|
00:23:11,250 --> 00:23:13,250 |
|
تصور، تصور، تصور، تصور، تصور، تصور، تصور، تصور، |
|
|
|
283 |
|
00:23:13,250 --> 00:23:13,750 |
|
تصور، تصور، تصور، تصور، تصور، تصور، تصور، تصور، |
|
|
|
284 |
|
00:23:13,750 --> 00:23:16,030 |
|
تصور، تصور |
|
|
|
285 |
|
00:23:18,130 --> 00:23:22,990 |
|
صورة مصغرة، شوف أحمد من غاد بيقول لك photo |
|
|
|
286 |
|
00:23:22,990 --> 00:23:26,770 |
|
description، بس سيبك من الـ photo واتكلم عن الـ |
|
|
|
287 |
|
00:23:26,770 --> 00:23:31,290 |
|
description، أنا بقول لك صح، صورة مصغرة أو نموذج، بلاش |
|
|
|
288 |
|
00:23:31,290 --> 00:23:38,410 |
|
نقول مصغر، صورة تصف النموذج أو الشكل أو الـ object |
|
|
|
289 |
|
00:23:38,410 --> 00:23:41,730 |
|
اللي جاي عندي، الآن بتروح شركة Apple على سبيل.. لأ |
|
|
|
290 |
|
00:23:41,730 --> 00:23:43,410 |
|
انتوا أقول لكوا علاقة بما في ناس بتكون interested |
|
|
|
291 |
|
00:23:43,410 --> 00:23:48,310 |
|
بالسيارات، تروح شركة BMW بتقول لك والله إحنا في عندنا |
|
|
|
292 |
|
00:23:48,310 --> 00:23:53,470 |
|
الـ model تبع 2030 من السيارة جاهز، شو |
|
|
|
293 |
|
00:23:53,470 --> 00:23:59,130 |
|
يعني؟ مش.. لأ لأ ما تكلم ال.. ما تكلم على الـ model |
|
|
|
294 |
|
00:23:59,130 --> 00:24:05,770 |
|
يعني أن هو في عنده تصور أو وصف دقيق لشكل السيارة، |
|
|
|
295 |
|
00:24:05,770 --> 00:24:08,470 |
|
إيش السيارة بدها تكون، اللي في الـ 2030 يا همام، |
|
|
|
296 |
|
00:24:08,470 --> 00:24:12,150 |
|
ممكن prototype أو ممكن يكون عاملة prototype، بس في |
|
|
|
297 |
|
00:24:12,150 --> 00:24:17,710 |
|
الآخر أهم في الـ prototype هذا مثلاً، معارض |
|
|
|
298 |
|
00:24:17,710 --> 00:24:20,990 |
|
السيارات، لما بروح بيعرض في المعارض، إيش بقول لك؟ |
|
|
|
299 |
|
00:24:20,990 --> 00:24:25,910 |
|
بقول لك، هي model، تمام؟ عن السيارة، هي model عن |
|
|
|
300 |
|
00:24:25,910 --> 00:24:26,450 |
|
الجوال |
|
|
|
301 |
|
00:24:29,520 --> 00:24:34,720 |
|
sample، إيش بستفيد من الـ sample هاي؟ فعلياً بشوف الـ |
|
|
|
302 |
|
00:24:34,720 --> 00:24:39,000 |
|
real description، بشوف وصفه دقيق كيف بيكون، لأ لما |
|
|
|
303 |
|
00:24:39,000 --> 00:24:42,700 |
|
بروح بقول لك في عندي الـ model تبعت الجوال مكونة من أو |
|
|
|
304 |
|
00:24:42,700 --> 00:24:47,500 |
|
هيك كده، فبديك وصفه، جدش حجمه، جدش الكاميرا، جدش وزنه، |
|
|
|
305 |
|
00:24:47,500 --> 00:24:50,020 |
|
جدش الـ processor، جدش الـ memory، جدش الـ storage |
|
|
|
306 |
|
00:24:50,020 --> 00:24:53,760 |
|
تبعته، إيش هو التقنية المستخدمة، مع الـ bluetooth، مع |
|
|
|
307 |
|
00:24:53,760 --> 00:24:57,300 |
|
الـ land، مع الـ wireless، عفواً، كل الشغلات هذه بتكون |
|
|
|
308 |
|
00:24:57,300 --> 00:25:04,310 |
|
موصوفة، وبالتالي الـ model هي عبارة عن طريقة لوصف شيء |
|
|
|
309 |
|
00:25:04,310 --> 00:25:07,150 |
|
معين، objects معين، مرة عليكوا تشغلوا اسمها data |
|
|
|
310 |
|
00:25:07,150 --> 00:25:11,930 |
|
model في الـ database زمان؟ الفصل الماضي يا إيهاب، |
|
|
|
311 |
|
00:25:11,930 --> 00:25:16,970 |
|
لما اتكلمنا على الـ data model وقبلها أنت بتعرف |
|
|
|
312 |
|
00:25:16,970 --> 00:25:21,750 |
|
شوية عن الـ relational model، تمام؟ مصبوط؟ ففعلياً |
|
|
|
313 |
|
00:25:21,750 --> 00:25:25,450 |
|
ليش بسميها model؟ لأنّه بوصف البيانات، وبالتالي |
|
|
|
314 |
|
00:25:25,450 --> 00:25:31,710 |
|
أنا الآن الـ model اللي هتكلم عليه هي عبارة عن آلية |
|
|
|
315 |
|
00:25:31,710 --> 00:25:37,370 |
|
لِوصف الـ knowledge، ما تنساش الـ data mining هدفها |
|
|
|
316 |
|
00:25:37,370 --> 00:25:42,450 |
|
knowledge |
|
|
|
317 |
|
00:25:42,450 --> 00:25:45,870 |
|
extraction |
|
|
|
318 |
|
00:25:45,870 --> 00:25:53,930 |
|
ولا لأ؟ هدف الـ mining task استخراج knowledge من الـ |
|
|
|
319 |
|
00:25:53,930 --> 00:25:56,970 |
|
data set اللي موجودة، طب الـ knowledge اللي طلعت هاي |
|
|
|
320 |
|
00:25:58,780 --> 00:26:04,060 |
|
كيف بدي أوصفها؟ كيف بدي أستخدمها؟ لازم تكون ضمن |
|
|
|
321 |
|
00:26:04,060 --> 00:26:10,040 |
|
model معين، عشان نقدر نستخدمها، الآن بالمثال |
|
|
|
322 |
|
00:26:10,040 --> 00:26:14,300 |
|
اللي موجود عندي هان في |
|
|
|
323 |
|
00:26:14,300 --> 00:26:18,800 |
|
عندي input raw data، مجموعة من التفاح حسب الصورة |
|
|
|
324 |
|
00:26:18,800 --> 00:26:26,140 |
|
اللي موجودة عندي هان، ثمان تفاحات، أحجامهم، ألوانهم، |
|
|
|
325 |
|
00:26:27,010 --> 00:26:30,190 |
|
الأوراق اللي موجودة عليهم، بالإضافة للريحة والطعم، |
|
|
|
326 |
|
00:26:30,190 --> 00:26:33,610 |
|
ريحة |
|
|
|
327 |
|
00:26:33,610 --> 00:26:38,890 |
|
تفاح، اللي هو ريحة ولا ما له؟ مش ريحة، ممتاز، لو ضليتكم |
|
|
|
328 |
|
00:26:38,890 --> 00:26:41,630 |
|
ساكتين، بقول لكم كيف بندخلها بس، وما أنك أنت سألتني، |
|
|
|
329 |
|
00:26:41,630 --> 00:26:46,810 |
|
خلصنا، فالآن هذه الـ characteristics الوصفية تبعت الـ |
|
|
|
330 |
|
00:26:46,810 --> 00:26:51,750 |
|
data هي، هم، هروح نديها للـ algorithm، أو أختار |
|
|
|
331 |
|
00:26:51,750 --> 00:26:55,290 |
|
algorithm، machine learning algorithm يقرأ الـ data |
|
|
|
332 |
|
00:26:55,290 --> 00:27:03,870 |
|
set كلّها، يعملها تحليل، يِوجد علاقة ما بين الحجم و |
|
|
|
333 |
|
00:27:03,870 --> 00:27:10,110 |
|
اللون والرائحة والطعم، كل الشغلات هذه، لما تديله |
|
|
|
334 |
|
00:27:10,110 --> 00:27:14,570 |
|
الـ data set أو العناصر هذه، يكون قادر على أن يقول |
|
|
|
335 |
|
00:27:14,570 --> 00:27:20,590 |
|
لي أن هذه تفاحة، الآن الـ model هذا أنا روحت اختبرته |
|
|
|
336 |
|
00:27:20,590 --> 00:27:27,690 |
|
بتفاحة خضراء، تفاحة ولا لأ؟ تمام؟ اللون واحدة من الـ |
|
|
|
337 |
|
00:27:27,690 --> 00:27:32,010 |
|
characteristics اللي كانت موجودة، بس مش كل شيء، الآن |
|
|
|
338 |
|
00:27:32,010 --> 00:27:37,070 |
|
الـ model تبعي الأصل يقول إنه هذا تفاحة، لو أنا روحت |
|
|
|
339 |
|
00:27:37,070 --> 00:27:45,770 |
|
أضفت هان مجموعة |
|
|
|
340 |
|
00:27:45,770 --> 00:27:50,750 |
|
من الـ mango أو البرتقال، تمام؟ مجموعة من البرتقال، |
|
|
|
341 |
|
00:27:50,750 --> 00:27:57,670 |
|
وصار في عندي two groups، في عندي هذه apple |
|
|
|
342 |
|
00:27:57,670 --> 00:28:04,870 |
|
وهذه orange، الـ system اللي يتعرف على خصائص الـ |
|
|
|
343 |
|
00:28:04,870 --> 00:28:08,890 |
|
apple هي المفهوم، التصنيف، أن أنا خلاص okay، هدول |
|
|
|
344 |
|
00:28:08,890 --> 00:28:13,550 |
|
هي المصنف تبعي apple أو orange، فالـ system هيتعرف |
|
|
|
345 |
|
00:28:13,550 --> 00:28:22,190 |
|
على خصائص الـ apple وخصائص التفاح ويبني model قادر |
|
|
|
346 |
|
00:28:22,190 --> 00:28:28,050 |
|
على التفريق ما بين التنتين، فلما أنا بديّه تفاحة، |
|
|
|
347 |
|
00:28:28,050 --> 00:28:30,750 |
|
هيقول لي تفاحة، أدّيته برتقالة، الأصل يقول لي |
|
|
|
348 |
|
00:28:30,750 --> 00:28:37,430 |
|
برتقالة، طب لو أدّيته حبة مانجو، مش هيعرف، غلط، في |
|
|
|
349 |
|
00:28:37,430 --> 00:28:41,490 |
|
الـ classification هان لأنه آلة، وما فيش مجال يا |
|
|
|
350 |
|
00:28:41,490 --> 00:28:45,270 |
|
هذه يا هذه، ما فيش مجال، ما فيش خيار ثالث، أنت |
|
|
|
351 |
|
00:28:45,270 --> 00:28:48,290 |
|
ما تركت له، في موضوع التصنيف، هي اللي أنا بوصلك |
|
|
|
352 |
|
00:28:48,290 --> 00:28:53,020 |
|
إياها، في موضوع التصنيف، ما فيش مجال، عندك أربع فئات |
|
|
|
353 |
|
00:28:53,020 --> 00:28:55,920 |
|
بدك تحط تحت واحدة من الأربع فئات، عندك two |
|
|
|
354 |
|
00:28:55,920 --> 00:29:00,020 |
|
categories، بدك تضيفها لواحدة من الـ categories بس |
|
|
|
355 |
|
00:29:00,020 --> 00:29:04,760 |
|
غالباً هيضيفها للأقرب، يعني تخيّل أنّه والله كان في الـ |
|
|
|
356 |
|
00:29:04,760 --> 00:29:08,800 |
|
mango اللي بنتكلم عليها هي لونها أحمر مثلاً وما أخذة |
|
|
|
357 |
|
00:29:08,800 --> 00:29:16,910 |
|
شكل كروي أكثر، تمام؟ فهتروح باتجاه التفاح، في الآخر |
|
|
|
358 |
|
00:29:16,910 --> 00:29:21,570 |
|
هو صح صنّفها غلط في كل الأحوال، بس هو اجتهد.. اجتهد |
|
|
|
359 |
|
00:29:21,570 --> 00:29:27,390 |
|
وراح ضافها للأقرب حسب الـ object اللي موجود، لكن في |
|
|
|
360 |
|
00:29:27,390 --> 00:29:32,190 |
|
المقابل كان في حبة مانجو أخرى أكبر حجماً ولونها |
|
|
|
361 |
|
00:29:32,190 --> 00:29:37,430 |
|
برتقالي، تمام؟ فمش ضروري أروح أصنّف لك إياها تفاح، |
|
|
|
362 |
|
00:29:37,430 --> 00:29:42,030 |
|
بروح أصنّف لك إياها إيش؟ Orange، لأنّه فعلياً الـ |
|
|
|
363 |
|
00:29:42,030 --> 00:29:49,070 |
|
characteristic تبعتها متشابهة، نعمل، مش ممكن عمرك |
|
|
|
364 |
|
00:29:49,070 --> 00:29:54,310 |
|
مرة عليك برنامج أنّه بيبني فئة لوحده، ممكن يتعلّم |
|
|
|
365 |
|
00:29:54,310 --> 00:29:57,650 |
|
يبني.. يبني الحالة، يبني الحالة، ده حالة يعني إذا |
|
|
|
366 |
|
00:29:57,650 --> 00:30:01,890 |
|
تجي ده أول مرة، أول مرة تصنّفها لحالة، وممكن الـ human |
|
|
|
367 |
|
00:30:01,890 --> 00:30:06,970 |
|
يقول لك شوف رجع لوين، بعدين الـ human يقول، الـ human هو |
|
|
|
368 |
|
00:30:06,970 --> 00:30:12,520 |
|
صاحب القرار، عمرها ما قال غيرت حال تمام أو أخدت |
|
|
|
369 |
|
00:30:12,520 --> 00:30:15,980 |
|
decision لوحدها، حتى كل اللي بنشوفه في الذكاء |
|
|
|
370 |
|
00:30:15,980 --> 00:30:23,100 |
|
الاصطناعي مردّه لتخطيط صحيح من الـ human، وتصرف الآلة |
|
|
|
371 |
|
00:30:23,100 --> 00:30:27,020 |
|
ما هو إلا من تصرف الـ human ضمن المسار اللي رسمه |
|
|
|
372 |
|
00:30:27,020 --> 00:30:30,540 |
|
الآن سيبك من الأفلام اللي احنا بنشوفها أن الـ.. الـ |
|
|
|
373 |
|
00:30:30,540 --> 00:30:34,620 |
|
.. اتطورت حتى تقطع.. تقطع.. تجيب البشر وتحتل |
|
|
|
374 |
|
00:30:34,620 --> 00:30:39,060 |
|
الكون، ده ما فيش منه، تمام؟ |
|
|
|
375 |
|
00:30:40,540 --> 00:30:45,060 |
|
طيب، الآن فبالتالي يا محمد احنا بنتكلم، ما فيش مجال، ما فيش |
|
|
|
376 |
|
00:30:45,060 --> 00:30:48,280 |
|
مجال أن أروح فئة، أضيف فئة جديدة، لأ، الفئات موجودة |
|
|
|
377 |
|
00:30:48,280 --> 00:30:52,340 |
|
مسبقاً، وبناء عليه أنا هشتغل مع الفئات اللي موجودة |
|
|
|
378 |
|
00:30:52,340 --> 00:30:56,060 |
|
عندي، فضل |
|
|
|
379 |
|
00:30:59,640 --> 00:31:02,160 |
|
مية بالمئة، الفرق بين الـ regression والـ |
|
|
|
380 |
|
00:31:02,160 --> 00:31:06,300 |
|
classification أن الـ classification categorical |
|
|
|
381 |
|
00:31:06,300 --> 00:31:10,940 |
|
value، discrete values، واحدة من التنتين هدول، بينما |
|
|
|
382 |
|
00:31:10,940 --> 00:31:15,960 |
|
بالـ regression بدّه يديني قيمة continuous value، |
|
|
|
383 |
|
00:31:15,960 --> 00:31:26,380 |
|
number، بدها تكون موجودة عندي، طيب الآن الـ |
|
|
|
384 |
|
00:31:26,380 --> 00:31:32,500 |
|
classification هي عبارة عن تكنيك أو خوارزمية أو تقنية |
|
|
|
385 |
|
00:31:32,500 --> 00:31:36,440 |
|
من أجل التنبؤ |
|
|
|
386 |
|
00:31:36,440 --> 00:31:43,340 |
|
to predict group membership، شو يعني group |
|
|
|
387 |
|
00:31:43,340 --> 00:31:50,640 |
|
membership؟ عضوية المجموعات، هل هذا ملائم لعضوية |
|
|
|
388 |
|
00:31:50,640 --> 00:31:54,240 |
|
المجموعة الفلانية ولا لأ؟ في عندي مجموعة اسمها الـ |
|
|
|
389 |
|
00:31:54,240 --> 00:32:00,440 |
|
Smart Students في الـ IT، أنت ملائم إلها ولا غير |
|
|
|
390 |
|
00:32:00,440 --> 00:32:05,860 |
|
ملائم؟ مش أنت اللي بتقرر، تمام؟ في لجنة هتروح |
|
|
|
391 |
|
00:32:05,860 --> 00:32:11,460 |
|
تختبرك وبناء عليها تقول أنت تنصلح ولا ما تصلحش، |
|
|
|
392 |
|
00:32:11,460 --> 00:32:14,380 |
|
ليش؟ لأنّه كمان مرة الـ prediction مش أنت صاحب |
|
|
|
393 |
|
00:32:14,380 --> 00:32:19,160 |
|
قراره، عفواً، الـ classification أو التصنيف مش أنت |
|
|
|
394 |
|
00:32:19,160 --> 00:32:23,980 |
|
صاحب قراره، في عندنا كل صنف إله rule أو خصائص |
|
|
|
395 |
|
00:32:23,980 --> 0 |
|
|
|
445 |
|
00:36:27,350 --> 00:36:32,570 |
|
negative orange, not orange. ما بنقولش تفاح لأن لو حط |
|
|
|
446 |
|
00:36:32,570 --> 00:36:35,410 |
|
المانجا وحط الموز تحت التفاح، في عندنا خطأ |
|
|
|
447 |
|
00:36:35,410 --> 00:36:40,190 |
|
فبنقول إحنا orange و not orange، وهكذا الآن في |
|
|
|
448 |
|
00:36:40,190 --> 00:36:46,670 |
|
مرحلة training زي ما قلنا إنه هيأخد كل ال data |
|
|
|
449 |
|
00:36:46,670 --> 00:36:51,450 |
|
points اللي موجودة عندها، اللي هي ال samples، مع ال |
|
|
|
450 |
|
00:36:51,450 --> 00:36:58,820 |
|
correct label المرتبط فيها، ويحاول يتعلم يصل لـ |
|
|
|
451 |
|
00:36:58,820 --> 00:37:03,280 |
|
pattern معين، كيف ال label هذا مرتبط بالـ point، زي |
|
|
|
452 |
|
00:37:03,280 --> 00:37:09,020 |
|
ما حكينا قبل لحظات، بمجرد إن ال system هذا تعلم، بدي |
|
|
|
453 |
|
00:37:09,020 --> 00:37:13,300 |
|
يبدأ يتصرف الآن، فتصرفه هيكون عبارة عن function |
|
|
|
454 |
|
00:37:13,300 --> 00:37:18,900 |
|
prediction function، هتأخد ال input تبع ال sample |
|
|
|
455 |
|
00:37:18,900 --> 00:37:23,480 |
|
تبع ال data point بدون ال label، عشان تعمل هي |
|
|
|
456 |
|
00:37:23,480 --> 00:37:27,500 |
|
prediction للـ label أو لل category اللي موجودة |
|
|
|
457 |
|
00:37:27,500 --> 00:37:33,980 |
|
عندها. فال |
|
|
|
458 |
|
00:37:33,980 --> 00:37:37,240 |
|
step الأولى بنسميها إحنا ال model construction |
|
|
|
459 |
|
00:37:37,240 --> 00:37:43,040 |
|
بناء ال model في ال regression يا جماعة الخير، وحتى |
|
|
|
460 |
|
00:37:43,040 --> 00:37:45,960 |
|
في ال classification، ممكن ال model تبعي يكون عبارة |
|
|
|
461 |
|
00:37:45,960 --> 00:37:48,620 |
|
عن binary classification، يكون عبارة عن linear |
|
|
|
462 |
|
00:37:48,620 --> 00:37:53,740 |
|
line، linear equation، ال Y equal M |
|
|
|
463 |
|
00:38:07,350 --> 00:38:13,660 |
|
معادلة خط مستقيم. ماهي الخط المستقيم مهمته؟ بيفصل |
|
|
|
464 |
|
00:38:13,660 --> 00:38:17,020 |
|
بين شغلتين، اللي فوق الخط category، واللي تحت الخط |
|
|
|
465 |
|
00:38:17,020 --> 00:38:20,800 |
|
category تانية. ففي لحظة ال binary classification، |
|
|
|
466 |
|
00:38:20,800 --> 00:38:25,840 |
|
إذا قدرت أنا أصل لمعادلة الخط المستقيم اللي بيفصل |
|
|
|
467 |
|
00:38:25,840 --> 00:38:31,160 |
|
ما بين ال two categories، خلاص هي ال model تبعي |
|
|
|
468 |
|
00:38:31,160 --> 00:38:37,700 |
|
بصير باخد ال instances، تمام؟ وبقارنها، إذا كانت |
|
|
|
469 |
|
00:38:37,700 --> 00:38:41,080 |
|
أكبر من كده فهي positive، أقل من كده فهي negative، |
|
|
|
470 |
|
00:38:41,080 --> 00:38:44,860 |
|
true أو false، orange أو not orange، فهي ال model |
|
|
|
471 |
|
00:38:44,860 --> 00:38:49,480 |
|
اللي أنا بدور عليه. في ال model construction، إحنا |
|
|
|
472 |
|
00:38:49,480 --> 00:38:53,500 |
|
عادة بنفترض إن ال data set، كل sample في ال data |
|
|
|
473 |
|
00:38:53,500 --> 00:39:00,070 |
|
set بتنتمي ل only one category، لأن لو نفس ال data |
|
|
|
474 |
|
00:39:00,070 --> 00:39:03,030 |
|
set، أو عفوا نفس ال instance هذه تكررت مع different |
|
|
|
475 |
|
00:39:03,030 --> 00:39:07,250 |
|
category، هيكون في عندي مشكلة. الشغل اللي بتعلمه قبل |
|
|
|
476 |
|
00:39:07,250 --> 00:39:10,390 |
|
شوية، بدي أحاول أنفيها أو بدي أراجع عنها وأحط |
|
|
|
477 |
|
00:39:10,390 --> 00:39:13,970 |
|
واحدة مضادة لها، وهذا الكلام ما بيصير تماما |
|
|
|
478 |
|
00:39:13,970 --> 00:39:18,070 |
|
تماماً، مثل ما آجي أقول، أعلم الولد الصغير، أقول له 2 |
|
|
|
479 |
|
00:39:18,070 --> 00:39:23,850 |
|
ضرب 3 يساوي 6، وفي نفس الوقت أروح أقول له بعد فترة |
|
|
|
480 |
|
00:39:23,850 --> 00:39:26,090 |
|
2 ضرب 3 يساوي 16. |
|
|
|
481 |
|
00:39:29,010 --> 00:39:34,810 |
|
يحفظ مين فيهم؟ مين فيهم الصح؟ الأخيرة صح، اه؟ |
|
|
|
482 |
|
00:39:34,810 --> 00:39:37,850 |
|
ما بيعرفش ال system، ال computer ما بيعرفش، أنت في |
|
|
|
483 |
|
00:39:37,850 --> 00:39:42,370 |
|
مرحلة التلقين، الإثنين صح، ولما يصير في عنده معلومة |
|
|
|
484 |
|
00:39:42,370 --> 00:39:47,870 |
|
متضاربة، فعلياً مش هيقدر يأخذ decision في أي حالة |
|
|
|
485 |
|
00:39:47,870 --> 00:39:52,140 |
|
فيها. اتنين ضرب تلاتة، هذا اللي بيصير، عشان هيك |
|
|
|
486 |
|
00:39:52,140 --> 00:39:55,820 |
|
بنفترض إنه في موضوع ال learning، أو في مرحلة |
|
|
|
487 |
|
00:39:55,820 --> 00:39:58,180 |
|
training أو ال learning في ال model construction، |
|
|
|
488 |
|
00:39:58,180 --> 00:40:04,680 |
|
إن كل instance بتنتمي فقط ل only one category، one |
|
|
|
489 |
|
00:40:04,680 --> 00:40:10,620 |
|
label. مجموعة ال data، ال 6 اللي أنا بدي أدرب عليها |
|
|
|
490 |
|
00:40:10,620 --> 00:40:14,640 |
|
النظام، أو اللي بدي أحللها النظام، بحيث إنه يأخذ منها |
|
|
|
491 |
|
00:40:14,640 --> 00:40:19,910 |
|
يستخلص ال model منها، بسميها ال training set، بسميها |
|
|
|
492 |
|
00:40:19,910 --> 00:40:26,410 |
|
ال training set. دكتور، نعم. ال training set، كلمة |
|
|
|
493 |
|
00:40:26,410 --> 00:40:30,110 |
|
بتعمل ال model، بنقل عليها، لأن كل واحد مثلاً في واجب |
|
|
|
494 |
|
00:40:30,110 --> 00:40:33,350 |
|
مخل، تلقى ال training set من خمسين ألف دورة، مش |
|
|
|
495 |
|
00:40:33,350 --> 00:40:36,170 |
|
هتبقى ال model مثلاً زي ما سيكت في سبوك أو أمازون، |
|
|
|
496 |
|
00:40:36,170 --> 00:40:38,530 |
|
بتبني، أو ال training set دي ال model. طب ما إحنا |
|
|
|
497 |
|
00:40:38,530 --> 00:40:40,970 |
|
قلنا، مين جابلنا هيك، هيقولنا، كل ما كبرت ال |
|
|
|
498 |
|
00:40:40,970 --> 00:40:44,610 |
|
training data set تبعتي، بكون فرصة ال prediction |
|
|
|
499 |
|
00:40:44,610 --> 00:40:48,570 |
|
تبعتي إنها تكون أدق، أعلى. كيف الاسم يعني؟ مثلاً خمسين |
|
|
|
500 |
|
00:40:48,570 --> 00:40:53,690 |
|
ألف raw data. شوف لأ، لأ، شوية. أنت عندك ال data set كلها |
|
|
|
501 |
|
00:40:53,690 --> 00:40:57,410 |
|
خمسين ألف raw data، وبدك تعمل training على تلاتين ألف raw data، |
|
|
|
502 |
|
00:40:57,410 --> 00:41:01,370 |
|
مثلاً، مش كافي، لأن عادة جماعة الخبرة، ال rows |
|
|
|
503 |
|
00:41:01,370 --> 00:41:04,990 |
|
المستخدمة، أو الحجم لل training set بيكون أكبر من |
|
|
|
504 |
|
00:41:04,990 --> 00:41:08,320 |
|
ال testing set. يعني الآن، إذا بتقدر تعمل training |
|
|
|
505 |
|
00:41:08,320 --> 00:41:11,160 |
|
على كل ال data، وتختبره في data مختلفة، بيكون ممتاز. |
|
|
|
506 |
|
00:41:11,160 --> 00:41:15,060 |
|
عشان هيك كنا في ال data preparation، نأكد هل في |
|
|
|
507 |
|
00:41:15,060 --> 00:41:19,160 |
|
مصادر أخرى للبيانات عندك، ولا مافيش؟ وجديش حجمها، |
|
|
|
508 |
|
00:41:19,160 --> 00:41:22,540 |
|
طبعاً؟ الآن، إذا أنت لاحظت في أخر assignment، أو في |
|
|
|
509 |
|
00:41:22,540 --> 00:41:25,720 |
|
ال assignment الأخير، مطلوب منك، آخر بند، اجسم ال |
|
|
|
510 |
|
00:41:25,720 --> 00:41:31,500 |
|
data set اللي عندك، 70% لل training set، و 30% لل |
|
|
|
511 |
|
00:41:31,500 --> 00:41:35,380 |
|
test set. مصبوط؟ وهذه التسأل ليش؟ لأنه ما بديش إياك |
|
|
|
512 |
|
00:41:35,380 --> 00:41:38,980 |
|
تدرب كل... تدربه على نفس... يعني على نفس ال data، و |
|
|
|
513 |
|
00:41:38,980 --> 00:41:42,820 |
|
بعدين آجي أحترمه، لأن كيف بدي أختبره أو بدي أفحص |
|
|
|
514 |
|
00:41:42,820 --> 00:41:48,280 |
|
مدى دقة العنصر. كمان مرة يا جماعة الخير، بنأكد، كل ما |
|
|
|
515 |
|
00:41:48,280 --> 00:41:53,800 |
|
كانت ال data set أكبر، ال training set أكبر، المفروض |
|
|
|
516 |
|
00:41:53,800 --> 00:41:56,860 |
|
إن كل ما تكون ال data، أو خلّنا نقول ال knowledge |
|
|
|
517 |
|
00:41:56,860 --> 00:42:02,120 |
|
تبعتي أدق، ال classification تبعتي بتصير أدق، لكن |
|
|
|
518 |
|
00:42:02,120 --> 00:42:05,220 |
|
برضه مش منطق إن يكون أنا في عندي اتنين مليار |
|
|
|
519 |
|
00:42:05,220 --> 00:42:10,800 |
|
record، تمام؟ وأنا بروح بتقبج عليهم كلهم، عملية ال |
|
|
|
520 |
|
00:42:10,800 --> 00:42:13,940 |
|
training بحد ذاتها هذه، هتصير تأخذ مني أشهر لما |
|
|
|
521 |
|
00:42:13,940 --> 00:42:17,360 |
|
تنتهي. فبتصير ممكن ال task اللي أنا بأشتغل عليها |
|
|
|
522 |
|
00:42:17,360 --> 00:42:24,370 |
|
أساساً خلصت، بطلتلها قيمة. فأنت برضه بتوازن ما بين ال |
|
|
|
523 |
|
00:42:24,370 --> 00:42:28,310 |
|
accuracy تبع النظام، وعامل الوقت أو ال performance |
|
|
|
524 |
|
00:42:28,310 --> 00:42:34,610 |
|
تبع ال training، جديش بيحقق نتائج في |
|
|
|
525 |
|
00:42:34,610 --> 00:42:40,110 |
|
ال data set اللي موجود عندنا. هان الآن، هاي عندي ال |
|
|
|
526 |
|
00:42:40,110 --> 00:42:44,610 |
|
data set، ال name، ال rank، ال years، نرجع ولا |
|
|
|
527 |
|
00:42:44,610 --> 00:42:48,830 |
|
ما نرجعش، نقعد |
|
|
|
528 |
|
00:42:48,830 --> 00:42:54,450 |
|
ولا ما نقعدش، نريح ولا ما نريحش، لأن هاي ال class |
|
|
|
529 |
|
00:42:54,450 --> 00:42:58,890 |
|
اللي عندي yes و no. فاروح أعمل التحليل لل data set |
|
|
|
530 |
|
00:42:58,890 --> 00:43:04,410 |
|
اللي موجودة، وكان مفاده إنه ال algorithm راح أعطاني |
|
|
|
531 |
|
00:43:04,410 --> 00:43:09,590 |
|
classifier model، prediction model لل class، لمية |
|
|
|
532 |
|
00:43:09,590 --> 00:43:13,910 |
|
ممكن أختار؟ ل yes و no، بحيث إنه أنا لو زدت بال |
|
|
|
533 |
|
00:43:13,910 --> 00:43:20,750 |
|
rank وعدد سنوات الخبرة، يدّيني ال label اللي موجود |
|
|
|
534 |
|
00:43:20,750 --> 00:43:27,890 |
|
فقال ال model تبعي هو عبارة عن if then rule، لو كان |
|
|
|
535 |
|
00:43:27,890 --> 00:43:31,890 |
|
ال rank professor، وال years أكبر أو يساوي 6، أكبر من |
|
|
|
536 |
|
00:43:31,890 --> 00:43:42,910 |
|
6، معناته نرجع. تمام. المرحلة الثانية، ال model usage، |
|
|
|
537 |
|
00:43:42,910 --> 00:43:48,060 |
|
بالملاحظة يا شباب، ال classification algorithm، أنا |
|
|
|
538 |
|
00:43:48,060 --> 00:43:55,280 |
|
هان غالباً... غالباً بيشتغل فعلياً as a black box، يعني |
|
|
|
539 |
|
00:43:55,280 --> 00:43:58,980 |
|
بدي ال input، وأخذ منه ال output، اللي هو ال model |
|
|
|
540 |
|
00:43:58,980 --> 00:44:03,300 |
|
إيش اللي بيصير... إيش اللي بيصير؟ غالباً مش كل |
|
|
|
541 |
|
00:44:03,300 --> 00:44:06,820 |
|
الناس المعنية فيه، بس أنا بالمساق هذا، هدخل بتفاصيل |
|
|
|
542 |
|
00:44:06,820 --> 00:44:11,240 |
|
عشان أعرف فعلياً ال classifier كيف اشتغل، تمام؟ لكن |
|
|
|
543 |
|
00:44:11,240 --> 00:44:15,730 |
|
في بعض ال classifiers، مش هنكون، أو مش هنتطرق لها |
|
|
|
544 |
|
00:44:15,730 --> 00:44:22,230 |
|
بالشغل تبعتها. بمجرد إن ال classifier انبنى، بدّه |
|
|
|
545 |
|
00:44:22,230 --> 00:44:25,630 |
|
أروح أطبقه، أو بدّه أروح أستخدمه، ال model هذا الآن |
|
|
|
546 |
|
00:44:25,630 --> 00:44:32,150 |
|
بيصير قابل للاستخدام. فيش |
|
|
|
547 |
|
00:44:32,150 --> 00:44:38,150 |
|
بدّه أستخدمه؟ يعمل classifying لمين؟ لل feature، لل |
|
|
|
548 |
|
00:44:38,150 --> 00:44:41,810 |
|
future، أو ال unknown objects. |
|
|
|
549 |
|
00:44:43,140 --> 00:44:46,840 |
|
بالمثال السابق هذا، أنا صار في عندي Jeff |
|
|
|
550 |
|
00:44:46,840 --> 00:44:53,200 |
|
professor، و 4 سنوات. الاسم neglected، مش هعتبره، لأن |
|
|
|
551 |
|
00:44:53,200 --> 00:44:58,660 |
|
ال role تبعي مبني على ال rank وال years، وبناءً |
|
|
|
552 |
|
00:44:58,660 --> 00:45:03,480 |
|
عليه أنا بدي آخذ القرار. كان بيقول لي، if ال rank |
|
|
|
553 |
|
00:45:03,480 --> 00:45:07,280 |
|
equal |
|
|
|
554 |
|
00:45:07,280 --> 00:45:17,370 |
|
professor، or ال years أكبر من 6، then yes. مظبوط، هاي ال rule |
|
|
|
555 |
|
00:45:17,370 --> 00:45:23,110 |
|
تبعي، هاي ال model تبعي. الآن، هاي ال data اللي عندي |
|
|
|
556 |
|
00:45:23,110 --> 00:45:26,710 |
|
حققت عليها، بطبقها مباشرة، باخد ال instances وبطبق |
|
|
|
557 |
|
00:45:26,710 --> 00:45:30,250 |
|
ال instance value، وبطبق عليها هان، وباخد القرار |
|
|
|
558 |
|
00:45:30,250 --> 00:45:37,070 |
|
تبع لل rule اللي موجود عندي. طيب، |
|
|
|
559 |
|
00:45:37,070 --> 00:45:40,690 |
|
لو ما كانش professor، كان assistant professor، |
|
|
|
560 |
|
00:45:40,690 --> 00:45:47,550 |
|
و 5 سنوات، no، مع ال else مباشرة، مع ال else مباشرة، |
|
|
|
561 |
|
00:45:47,550 --> 00:45:54,150 |
|
الارجل مع الخير. معناته أنا بحاجة في مرحلتين عشان |
|
|
|
562 |
|
00:45:54,150 --> 00:45:56,690 |
|
أشتغل مع ال classifier، بحاجة أشتغل على مرحلتين، |
|
|
|
563 |
|
00:45:56,690 --> 00:46:00,550 |
|
المرحلة الأولى اللي هي ال model construction، |
|
|
|
564 |
|
00:46:00,550 --> 00:46:05,770 |
|
وبيلزمني data عشان أدرب ال model عليها، بين جثين |
|
|
|
565 |
|
00:46:05,770 --> 00:46:08,710 |
|
بيلزمني data عشان ال system أو ال learning |
|
|
|
566 |
|
00:46:08,710 --> 00:46:14,230 |
|
algorithm يحللها ويبني model بناءً عليها. الشغلة |
|
|
|
567 |
|
00:46:14,230 --> 00:46:19,450 |
|
الثانية، إنه أنا بدي أفحص ال model، أو بدي أستخدم ال |
|
|
|
568 |
|
00:46:19,450 --> 00:46:22,830 |
|
model في ال prediction، وهي بنسميها إحنا المرحلة |
|
|
|
569 |
|
00:46:22,830 --> 00:46:26,630 |
|
مرحلة ال testing أو ال test. فأنا بدي اجسم ال data |
|
|
|
570 |
|
00:46:26,630 --> 00:46:33,130 |
|
set تبعتي، ل training set، و |
|
|
|
571 |
|
00:46:33,130 --> 00:46:40,340 |
|
test set. ليش؟ عشان لما أنا أحصل على model، عشان لما |
|
|
|
572 |
|
00:46:40,340 --> 00:46:43,460 |
|
أحصل على model، كيف بدي أتعرف إن ال model هذا شغال |
|
|
|
573 |
|
00:46:43,460 --> 00:46:48,200 |
|
كويس ولا لأ؟ بدي إنه النتيجة المطلوبة، ولا بشتغل من |
|
|
|
574 |
|
00:46:48,200 --> 00:46:54,880 |
|
رأسه؟ فبدي أعمله evaluation. طيب، evaluation، how did |
|
|
|
575 |
|
00:46:54,880 --> 00:47:00,380 |
|
we test that test set؟ هو الأصل هي unseen data، مصبوط؟ |
|
|
|
576 |
|
00:47:00,380 --> 00:47:05,760 |
|
فعلياً unseen، ما شفهاش، بس دي فيها label، بخبي ال |
|
|
|
577 |
|
00:47:05,760 --> 00:47:10,620 |
|
label عنها، عشان أقدر إيش؟ أقارن بين النتيجة اللي هو |
|
|
|
578 |
|
00:47:10,620 --> 00:47:16,080 |
|
هيعطيني إياها، والنتيجة اللي هحصل عليها، وأنا بدي أسأل |
|
|
|
579 |
|
00:47:16,080 --> 00:47:25,980 |
|
سؤال: هل ال test set labelled set؟ في مرحلة ال |
|
|
|
580 |
|
00:47:25,980 --> 00:47:33,160 |
|
evaluation، هل ال test set labelled set؟ طيب، الآن |
|
|
|
581 |
|
00:47:33,160 --> 00:47:34,100 |
|
أنا جديد، كتبت |
|
|
|
582 |
|
00:47:36,780 --> 00:47:43,060 |
|
الـ body mass index، point تلاتة سبعة، والـ chest |
|
|
|
583 |
|
00:47:43,060 --> 00:47:52,020 |
|
pain yes، تصلب شرايين، Blocked Artery yes، قال لي هذا |
|
|
|
584 |
|
00:47:52,020 --> 00:47:57,720 |
|
heart disease. هذا الأصل اللي نعملها prediction، صح؟ |
|
|
|
585 |
|
00:47:57,720 --> 00:48:06,090 |
|
أنا أخدتها على عليتها، هيك قال لي no. بتقدر تقول عن |
|
|
|
586 |
|
00:48:06,090 --> 00:48:09,430 |
|
ال prediction بتاعته صح ولا غلط؟ بتقدر تعمل |
|
|
|
587 |
|
00:48:09,430 --> 00:48:16,590 |
|
evaluation لإلها؟ بتقارنها بإيش؟ بال label الأصلي. |
|
|
|
588 |
|
00:48:16,590 --> 00:48:21,930 |
|
فعشان هيك ال test set must be labelled. عشان هيك، بعد |
|
|
|
589 |
|
00:48:21,930 --> 00:48:24,470 |
|
ما أنت خلصت، عملت processing في ال assignment، |
|
|
|
590 |
|
00:48:24,470 --> 00:48:29,890 |
|
وقلت لك اجسم، اجسم ال data set لجزئين، جزء ال |
|
|
|
591 |
|
00:48:29,890 --> 00:48:35,340 |
|
training، وجزء testing. بس اللي هيصير فعلياً، لما أصل |
|
|
|
592 |
|
00:48:35,340 --> 00:48:40,820 |
|
لمرحلة ال evaluation، هخبّي ال test، أو هخبّي ال label |
|
|
|
593 |
|
00:48:40,820 --> 00:48:45,780 |
|
تبعت مين؟ تبعت ال test set، عشان أقول، اتفضل، هاي |
|
|
|
594 |
|
00:48:45,780 --> 00:48:49,640 |
|
unseen data، اعمل لهم prediction، فبيديني مجموعة ال |
|
|
|
595 |
|
00:48:49,640 --> 00:48:53,160 |
|
labels اللي predicted، وعندي ال original أو ال true |
|
|
|
596 |
|
00:48:53,160 --> 00:48:58,320 |
|
labelled، بصير أقارن، وبقدر أتكلم إنه جديش هذا ال |
|
|
|
597 |
|
00:48:58,320 --> 00:48:59,180 |
|
model تبعي accurate. |
|
|
|
598 |
|
00:49:03,990 --> 00:49:08,470 |
|
أه، الآن أحمد بيسأل، بيقول: هل بقدر أروح أرجع ال |
|
|
|
599 |
|
00:49:08,470 --> 00:49:11,830 |
|
data test set هذه، وأوديها على ال training، عشان |
|
|
|
600 |
|
00:49:11,830 --> 00:49:17,350 |
|
يتعلم من أخطائه؟ أنت already علمته، وكمان لو أنت |
|
|
|
601 |
|
00:49:17,350 --> 00:49:21,270 |
|
روحت أخدته، يعني هيك، من وين بدك تختبره بعد هيك؟ |
|
|
|
602 |
|
00:49:21,270 --> 00:49:25,130 |
|
بدك تجيب له data set جديدة، طب ليش مش من نفس ال |
|
|
|
603 |
|
00:49:25,130 --> 00:49:30,450 |
|
data set؟ لأن already هو شافها، تمام. من الشباب، |
|
|
|
604 |
|
00:49:30,450 --> 00:49:37,330 |
|
بينفعش أنا آجي أديك الامتحان وأقول لك اتفضل، حلّ، تمام، |
|
|
|
605 |
|
00:49:37,330 --> 00:49:42,530 |
|
وبكرا بدي أختبرك فيه، في الأسئلة هاي، ما أصبحش |
|
|
|
606 |
|
00:49:42,530 --> 00:49:50,370 |
|
امتحان، ولا أصبح امتحان امتحان مسرّب، اه، فش يعني، عفواً، |
|
|
|
607 |
|
00:49:50,370 --> 00:49:53,550 |
|
كلّكم هتنجحوا، مصبوط؟ الأصل كده، واللي ما بدهوش ينجح |
|
|
|
608 |
|
00:49:53,550 --> 00:49:58,570 |
|
يتطخّد الساعة بيكون، بس فعلياً، هل النجاح هذا حقيقي؟ |
|
|
|
609 |
|
00:49:58,570 --> 00:50:04,890 |
|
لأ، الحاجات هذا fake، النجاح هذا fake. أما إحنا قلنا |
|
|
|
610 |
|
00:50:04,890 --> 00:50:09,390 |
|
الفكرة وين؟ إن بعد ما أنا جسمت هان، في مرحلة ال |
|
|
|
611 |
|
00:50:09,390 --> 00:50:14,890 |
|
evaluation، مش بدّه يشوف... بدّه يشوف ال... بيشوف هو |
|
|
|
612 |
|
00:50:14,890 --> 00:50:19,370 |
|
اجتيش... لأ، بدّه يشوف ال... ال... ال... ال... ال |
|
|
|
613 |
|
00:50:19,370 --> 00:50:24,670 |
|
result، دي، يقارن فوق، هيو... هذه... هذه... بدّه يقارن |
|
|
|
614 |
|
00:50:24,670 --> 00:50:30,690 |
|
هذه. لأ، ومش قارنها مع اللي فوق، هو على ال model بناءً |
|
|
|
615 |
|
00:50:30,690 --> 00:50:33,950 |
|
على ال equation اللي ان |
|
|
|
667 |
|
00:55:02,060 --> 00:55:06,660 |
|
computational جديش أنا مهتم بسرعة النظام، يعني الآن |
|
|
|
668 |
|
00:55:06,660 --> 00:55:12,010 |
|
مثلًا، بدنا نظام الآن.. محتاجين نظام سريع يحاول |
|
|
|
669 |
|
00:55:12,010 --> 00:55:15,610 |
|
يتنبأ أن المريض هذا اللي مش.. منضيق في الصدر أو |
|
|
|
670 |
|
00:55:15,610 --> 00:55:19,530 |
|
في صعوبة في التنفس، مصاب بـ Corona ولا لأ؟ أنت.. |
|
|
|
671 |
|
00:55:19,530 --> 00:55:22,550 |
|
أنت.. أنت خبير.. خبير الصين أصلًا.. أنت عشان إيه |
|
|
|
672 |
|
00:55:22,550 --> 00:55:27,730 |
|
قلت Corona مباشرة، تمام؟ الآن الفكرة وين؟ أن أنا |
|
|
|
673 |
|
00:55:27,730 --> 00:55:31,710 |
|
جديش بأقدر أعمل training لـ model.. a curated |
|
|
|
674 |
|
00:55:31,710 --> 00:55:37,450 |
|
model بشكل سريع، بكون كويس إليّ، ليش؟ لأن أنا |
|
|
|
675 |
|
00:55:37,450 --> 00:55:42,050 |
|
فعليًا.. الآن أنا محتاجه، يمكن بكرا ما محتاجوش، فالآن |
|
|
|
676 |
|
00:55:42,050 --> 00:55:46,410 |
|
هذه بتفرج معايا الـ performance في مرحلة الـ |
|
|
|
677 |
|
00:55:46,410 --> 00:55:52,490 |
|
generation، الـ using في الـ prediction، أن لما أزوده |
|
|
|
678 |
|
00:55:52,490 --> 00:55:56,230 |
|
بالعينة اللي المفروض يعمل عليها prediction أو يقيم |
|
|
|
679 |
|
00:55:56,230 --> 00:56:01,150 |
|
يعملها evaluation، جديش بده وقت؟ بده ثانية، |
|
|
|
680 |
|
00:56:01,150 --> 00:56:06,630 |
|
ثنتين، ثلاث، عشر، كل ما كان أسرع يكون أحسن في الـ |
|
|
|
681 |
|
00:56:06,630 --> 00:56:10,670 |
|
real-time system، الآن في عندنا جسم بيتحرك في الجو |
|
|
|
682 |
|
00:56:10,670 --> 00:56:16,350 |
|
بسرعة 100 كيلومتر في الساعة، طيارة، |
|
|
|
683 |
|
00:56:16,350 --> 00:56:23,350 |
|
صاروخ، قذيفة، غراب، مش عارفين، في الأنظمة الدفاعية |
|
|
|
684 |
|
00:56:23,350 --> 00:56:26,710 |
|
بتفرج الآن هذا الجسم اللي بيتحرك في الـ real-time |
|
|
|
685 |
|
00:56:26,710 --> 00:56:31,630 |
|
system، تمام؟ بناءً على سرعته وحجمه، |
|
|
|
686 |
|
00:56:33,360 --> 00:56:36,620 |
|
بدهم ياخدوا قرار، اللي غالبًا ما بيبينش، بدهم ياخدوا |
|
|
|
687 |
|
00:56:36,620 --> 00:56:41,160 |
|
قرار، شو هذا؟ بيكون إفعل صفرات الإنذار ولا لأ، الإنذار |
|
|
|
688 |
|
00:56:41,160 --> 00:56:51,780 |
|
ولا لأ، إحنا |
|
|
|
689 |
|
00:56:51,780 --> 00:56:57,200 |
|
قلنا حمامة، شكله زاد مع البس، خلاص وهي طايرة |
|
|
|
690 |
|
00:56:58,620 --> 00:57:02,060 |
|
الفكرة يا جماعة الخير اللي أنا بدي أوصلك إياها هي إذا |
|
|
|
691 |
|
00:57:02,060 --> 00:57:06,940 |
|
ما كانتش مرحلة الـ prediction سريعة، تفقدت الأهمية، |
|
|
|
692 |
|
00:57:06,940 --> 00:57:11,060 |
|
تبعتها، فضل يا دكتور قبل لما راحيت على المرض، أكيد |
|
|
|
693 |
|
00:57:11,060 --> 00:57:16,080 |
|
فعلاً مش هيكون مثلًا، بدنا نتنبأ أن فيه مثلًا.. لو |
|
|
|
694 |
|
00:57:16,080 --> 00:57:19,800 |
|
مثلًا افتراض مثلًا، علشان هنا يعني محتمل يكون فيه |
|
|
|
695 |
|
00:57:19,800 --> 00:57:23,100 |
|
نسبة خطأ، فإحنا على وجه السرعة مش هيكون بدنا نتنبأ، |
|
|
|
696 |
|
00:57:23,100 --> 00:57:28,190 |
|
بدنا يعني.. طب أنت عملك بتقول أنا المرض هذا فعليًا |
|
|
|
697 |
|
00:57:28,190 --> 00:57:34,070 |
|
مش قادر أشخصه أو في عندهم صعوبة في تشخيصه فقط، |
|
|
|
698 |
|
00:57:34,070 --> 00:57:37,930 |
|
طب المريض العادي أو اللي عنده احتقان في زوره، |
|
|
|
699 |
|
00:57:37,930 --> 00:57:41,890 |
|
ابرت في حرارته واحد زي حالتي بيكون قاعد، |
|
|
|
700 |
|
00:57:41,890 --> 00:57:44,950 |
|
بيشرح وبيطلع واحد غبي بيقوله، بس طايرة، ابرِتْ فيه |
|
|
|
701 |
|
00:57:44,950 --> 00:57:45,450 |
|
حرارته، |
|
|
|
702 |
|
00:57:49,260 --> 00:57:53,380 |
|
تمام؟ بالفكرة يا جماعة، okay، أنا بدي.. بدي system |
|
|
|
703 |
|
00:57:53,380 --> 00:57:57,500 |
|
يكون سريع، عفواً بدي أصل لـ model بشكل سريع، بعض الـ |
|
|
|
704 |
|
00:57:57,500 --> 00:58:02,240 |
|
models بتاخد أيام وأشهر هي بتعمل الـ training، صح؟ |
|
|
|
705 |
|
00:58:02,240 --> 00:58:06,460 |
|
بيكون هذا دقيق الشغل، صحيح، لكن أنا برضه حسب الحالة |
|
|
|
706 |
|
00:58:06,460 --> 00:58:11,480 |
|
اللي أنا بدي أشتغل عليها، نعم لأ، |
|
|
|
707 |
|
00:58:11,480 --> 00:58:16,460 |
|
للأسف data preparation، هل تحسب ضمن الـ time cost؟ لأ، |
|
|
|
708 |
|
00:58:17,850 --> 00:58:21,290 |
|
لأن هنا بنتكلم إحنا على الـ computational cost، كل |
|
|
|
709 |
|
00:58:21,290 --> 00:58:27,670 |
|
اللي أنت سويتّه قبل، مجرد تجهيز لعملية الـ mining، |
|
|
|
710 |
|
00:58:27,670 --> 00:58:33,330 |
|
أكيد كل ما زاد حجم الـ data زاد حجم الـ computation، |
|
|
|
711 |
|
00:58:33,330 --> 00:58:37,790 |
|
بالـ training والـ testing، الآن الـ data set تبعتي |
|
|
|
712 |
|
00:58:37,790 --> 00:58:42,870 |
|
مكونة من عشرة attributes، هل الـ computation تبعتها، |
|
|
|
713 |
|
00:58:42,870 --> 00:58:49,260 |
|
زي ما يكون عندي 100 attributes؟ حتماً لأ، يعني عشر، |
|
|
|
714 |
|
00:58:49,260 --> 00:58:54,620 |
|
متغيرات، زي مين؟ متغير، أكيد لأ، جديش الـ robustness أو |
|
|
|
715 |
|
00:58:54,620 --> 00:58:58,200 |
|
الموثوقية، جديش الـ system هذا بيديني accurate |
|
|
|
716 |
|
00:58:58,200 --> 00:59:03,680 |
|
result في حالة الـ noise data، الـ noise instance أو |
|
|
|
717 |
|
00:59:03,680 --> 00:59:06,960 |
|
في حالة وجود الـ missing values، الآن إحنا قبل شوية، |
|
|
|
718 |
|
00:59:06,960 --> 00:59:10,740 |
|
اتكلمت على ثلاث عناصر عشان الـ heart disease، الـ body |
|
|
|
719 |
|
00:59:10,740 --> 00:59:16,000 |
|
mass index، والـ chest pain، وتصلب الشرايين، الآن لو |
|
|
|
720 |
|
00:59:16,000 --> 00:59:18,880 |
|
عندي اثنتين منهم فقط، بيقدر الـ system يديني |
|
|
|
721 |
|
00:59:18,880 --> 00:59:23,360 |
|
prediction؟ لأ، ما تقوليش لأ، أنت ما تشكشكش، لأ، الـ |
|
|
|
722 |
|
00:59:23,360 --> 00:59:26,380 |
|
system هيديكي prediction، هيديكي prediction، بس اللي |
|
|
|
723 |
|
00:59:26,380 --> 00:59:29,900 |
|
أنا بدور عليه، هل بيقدر يديني prediction صحيح؟ إذا |
|
|
|
724 |
|
00:59:29,900 --> 00:59:33,360 |
|
بيديني prediction صحيح، معناته هذا more robust، أكثر |
|
|
|
725 |
|
00:59:33,360 --> 00:59:38,300 |
|
موثوقية، ليش؟ لأن في حالة أن أنا فقدت واحد من الـ |
|
|
|
726 |
|
00:59:38,300 --> 00:59:41,440 |
|
attributes اللي موجودة، بضل قادر أعتمد عليه عشان |
|
|
|
727 |
|
00:59:41,440 --> 00:59:46,050 |
|
يعمل prediction، تمام؟ الآن في حالة كان في عندي |
|
|
|
728 |
|
00:59:46,050 --> 00:59:49,710 |
|
noise data، نفس النظام، بالمناسبة يا حسن، إحنا عادةً |
|
|
|
729 |
|
00:59:49,710 --> 00:59:53,490 |
|
اللي بنتكلم فعليًا، هذا المثال اللي ذكرته ثلاث، عشان |
|
|
|
730 |
|
00:59:53,490 --> 00:59:57,870 |
|
بس نستوعب الشيء اللي بيصير، ونفهم فعليًا كل الـ |
|
|
|
731 |
|
00:59:57,870 --> 01:00:02,730 |
|
concept بشكل واضح، لكن فعليًا لو أنا سألتك، أبسط |
|
|
|
732 |
|
01:00:02,730 --> 01:00:05,710 |
|
اختبار ممكن يجريه الإنسان اللي له علاقة بصحته، الـ |
|
|
|
733 |
|
01:00:05,710 --> 01:00:13,270 |
|
CBC، كم factor فيه؟ 15 أعتقد أو 14، يعني بتكلم |
|
|
|
734 |
|
01:00:13,270 --> 01:00:16,450 |
|
على الأقل 14 attributes، اللي هو الـ test الـ |
|
|
|
735 |
|
01:00:16,450 --> 01:00:21,870 |
|
complete blood test، تمام؟ فبتكلم على 14 attributes |
|
|
|
736 |
|
01:00:21,870 --> 01:00:25,730 |
|
لكل عينة، الآن لو في واحدة عينة فيها مشكلة في الـ |
|
|
|
737 |
|
01:00:25,730 --> 01:00:30,750 |
|
noise أو value معينة، لأ لأ، مش ضروري، فالآن لو جديش |
|
|
|
738 |
|
01:00:30,750 --> 01:00:34,630 |
|
الآن الطبيب الحاذق ممكن بيقدر يقارن شغلات مع بعضها، |
|
|
|
739 |
|
01:00:34,630 --> 01:00:38,210 |
|
ويقول لك لأ، في مشكلة، يعني واضح من الجهاز أن في مشكلة، هذه |
|
|
|
740 |
|
01:00:38,210 --> 01:00:42,450 |
|
الفكرة وين؟ أن الـ system لو غاب في عندي value أو |
|
|
|
741 |
|
01:00:42,450 --> 01:00:46,170 |
|
تشوشت value من الأربع عشر، يكون عنده القدرة على |
|
|
|
742 |
|
01:00:46,170 --> 01:00:50,410 |
|
التنبؤ الصحيح، أي واحدة من الأربع عشر هذه ما بتعنّاش |
|
|
|
743 |
|
01:00:50,410 --> 01:00:54,870 |
|
بس، في اللحظة اللي بيجيني الـ attribute، عفواً بيجيني |
|
|
|
744 |
|
01:00:54,870 --> 01:00:58,610 |
|
الـ rows، الـ raw with missing value أو with noisy |
|
|
|
745 |
|
01:00:58,610 --> 01:01:02,350 |
|
data، الأصل يعمل prediction، هيعمل prediction في كل |
|
|
|
746 |
|
01:01:02,350 --> 01:01:07,320 |
|
الأحوال، كل مكان بيديني accurate الـ prediction في |
|
|
|
747 |
|
01:01:07,320 --> 01:01:11,300 |
|
الـ such case هذه، معناته هذا مرة أقدر أثق فيه |
|
|
|
748 |
|
01:01:11,300 --> 01:01:18,880 |
|
أكثر، تمام، الـ scalability، الـ scalability طبعًا دائمًا |
|
|
|
749 |
|
01:01:18,880 --> 01:01:23,740 |
|
إحنا مفهوم الـ scalability، بنتكلم على الـ large |
|
|
|
750 |
|
01:01:23,740 --> 01:01:29,560 |
|
amount of data، فعليًا هل الـ algorithm هذا تبعه ممكن |
|
|
|
751 |
|
01:01:29,560 --> 01:01:35,000 |
|
من السهل أن يتعامل معه مع large data، الـ data set |
|
|
|
752 |
|
01:01:35,000 --> 01:01:37,760 |
|
اللي عندي مليون instances، هل الـ algorithm قادر على |
|
|
|
753 |
|
01:01:37,760 --> 01:01:40,960 |
|
تحليل مليون instances مع عشر.. مع عشر attributes، |
|
|
|
754 |
|
01:01:40,960 --> 01:01:44,100 |
|
أو مع مئة attributes، فهذا أنا بدي أسأله، كل ما كان |
|
|
|
755 |
|
01:01:44,100 --> 01:01:48,780 |
|
الـ algorithm اللي هستخدمه more scalable، معناته |
|
|
|
756 |
|
01:01:48,780 --> 01:01:54,420 |
|
بكون أفضل، interpretability، تفسير والـ |
|
|
|
757 |
|
01:01:54,420 --> 01:02:01,500 |
|
understanding، وفهم محتوى أو ما وراء الـ Model أو |
|
|
|
758 |
|
01:02:01,500 --> 01:02:04,840 |
|
الـ Algorithm اللي عندي، The level of understanding |
|
|
|
759 |
|
01:02:04,840 --> 01:02:10,000 |
|
and insight، والمفهوم أو التوضيح أو المعنى الخفي من |
|
|
|
760 |
|
01:02:10,000 --> 01:02:14,200 |
|
Provided by the classifier، إحنا قبل شوية لما شفنا |
|
|
|
761 |
|
01:02:14,200 --> 01:02:18,000 |
|
الـ if then، كان بسهولة أن أفهم عليه، بدور إيش الـ |
|
|
|
762 |
|
01:02:18,000 --> 01:02:21,720 |
|
factors الأساسية اللي كانت موجودة؟ لو هذا الـ if |
|
|
|
763 |
|
01:02:21,720 --> 01:02:25,040 |
|
then ما كانتش موجودة، بقدر أستوعب ليش هو جداني yes وجداني no؟ أكيد لأ، لكن لما بيكون الـ algorithm قدامي |
|
|
|
764 |
|
01:02:25,040 --> 01:02:29,140 |
|
قادر أو بقدر أو قادر على تفسيره، بكون أفضل، لكن |
|
|
|
765 |
|
01:02:29,140 --> 01:02:34,820 |
|
الصحيح الموضوع برضه تفسيره هذا subjective للإنسان |
|
|
|
766 |
|
01:02:34,820 --> 01:02:39,980 |
|
أو للشخص اللي بيشتغل عليه، لما أنا كتبنا، كتبنا |
|
|
|
767 |
|
01:02:39,980 --> 01:02:42,780 |
|
المعادلة الرياضية، Y تساوي M1 في A1 زائد M2 في A2 |
|
|
|
768 |
|
01:02:42,780 --> 01:02:50,140 |
|
زائد B، |
|
|
|
769 |
|
01:02:50,140 --> 01:02:51,440 |
|
زائد B، |
|
|
|
770 |
|
01:02:55,220 --> 01:02:59,920 |
|
إيش رتبة.. إيش درجة المعادلة هي يا شباب؟ إيش رتبة |
|
|
|
771 |
|
01:02:59,920 --> 01:03:07,980 |
|
المعادلة هي يا شباب؟ معادلة خطية، لأن الدرجة تقاس بأعلى |
|
|
|
772 |
|
01:03:07,980 --> 01:03:12,840 |
|
أُس، الدرجة أو رتبة المعادلة تقاس بأعلى أُس، |
|
|
|
773 |
|
01:03:12,840 --> 01:03:18,000 |
|
فالمعادلة هي خطية، بس فعليًا هذه multiple variable، |
|
|
|
774 |
|
01:03:18,000 --> 01:03:25,480 |
|
متغيرات، اثنين مع الـ Y، يعني بين قوسين الـ 3D equation، مصبوط؟ هي.. هي الفكرة، الآن مش كل الناس |
|
|
|
775 |
|
01:03:25,480 --> 01:03:30,840 |
|
قادرة على تفسير.. هذه، أعرضها على واحد خبير رياضيات |
|
|
|
776 |
|
01:03:30,840 --> 01:03:35,740 |
|
مباشرة، بيقول لك هذه بتعني كذا، وواحد كذا، بيجي و |
|
|
|
777 |
|
01:03:35,740 --> 01:03:38,580 |
|
بيقول لك أن هذا plane مائل، plane، مسطح مائل، الميل |
|
|
|
778 |
|
01:03:38,580 --> 01:03:43,860 |
|
تبعه باتجاه X، ومثلًا X و Y كذا، X و Z كذا، هي الأبعاد |
|
|
|
779 |
|
01:03:43,860 --> 01:03:51,450 |
|
تبعته، وهذه ارتفاعه أو التقاطع تبعته مع الـ Y axis، |
|
|
|
780 |
|
01:03:51,450 --> 01:03:56,990 |
|
لكن أنا مش عارفني بالكلام هذا، فالموضوع الـ |
|
|
|
781 |
|
01:04:02,270 --> 01:04:07,130 |
|
interpretability، أو موضوع تفسير الـ algorithm، و |
|
|
|
782 |
|
01:04:07,130 --> 01:04:12,550 |
|
فهمه بيختلف من شخص لشخص، من |
|
|
|
783 |
|
01:04:12,550 --> 01:04:17,410 |
|
الـ algorithms اللي هنتعرف عليها، K-nearest |
|
|
|
784 |
|
01:04:17,410 --> 01:04:21,490 |
|
neighbor algorithm، وهذا البرنامج يعتمد على |
|
|
|
785 |
|
01:04:21,490 --> 01:04:22,550 |
|
البرنامج، الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة |
|
|
|
786 |
|
01:04:22,550 --> 01:04:30,530 |
|
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة، |
|
|
|
787 |
|
01:04:30,530 --> 01:04:35,310 |
|
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة، |
|
|
|
788 |
|
01:04:35,310 --> 01:04:35,330 |
|
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة، |
|
|
|
789 |
|
01:04:35,330 --> 01:04:41,850 |
|
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة، |
|
|
|
790 |
|
01:04:41,850 --> 01:04:47,070 |
|
وفي عند الـ rule based induction، وفي عند الـ |
|
|
|
791 |
|
01:04:47,070 --> 01:04:49,430 |
|
support vector machine، وفي عند الـ logistic |
|
|
|
792 |
|
01:04:49,430 --> 01:04:53,610 |
|
regression، كل هذه الـ algorithms تستخدم في الـ |
|
|
|
793 |
|
01:04:53,610 --> 01:04:55,990 |
|
classification، وفي عند الـ back propagation، الـ |
|
|
|
794 |
|
01:04:55,990 --> 01:04:59,310 |
|
neural network، في الفصل هذا، في الشابتر هذا إن شاء |
|
|
|
795 |
|
01:04:59,310 --> 01:05:02,350 |
|
الله تعالى، هشرح لك الـ k-nearest neighbor، والـ naive |
|
|
|
796 |
|
01:05:02,350 --> 01:05:05,170 |
|
bayes، والـ decision tree، والـ back propagation، والـ |
|
|
|
797 |
|
01:05:05,170 --> 01:05:09,650 |
|
propagation neural network، كـ classifiers خلال الفصل |
|
|
|
798 |
|
01:05:09,650 --> 01:05:14,360 |
|
هذا، أنا محاضرة اليوم هي كاد أن تنتهي. |
|
|