|
1 |
|
00:00:05,350 --> 00:00:07,290 |
|
بسم الله والحمد لله والصلاة والسلام على رسول الله |
|
|
|
2 |
|
00:00:07,290 --> 00:00:13,340 |
|
اليوم إن شاء الله شباب، نبدأ فعليًا تقريبًا بأول شغل |
|
|
|
3 |
|
00:00:13,340 --> 00:00:17,980 |
|
عملي في الـ data mining وهنجوز إيه في الـ data |
|
|
|
4 |
|
00:00:17,980 --> 00:00:21,120 |
|
preparation. ممكن المحاضرة نشوف فيها بعض الأكواد |
|
|
|
5 |
|
00:00:21,120 --> 00:00:24,540 |
|
اليوم، لكن المحاضرة الجاية حتما، يعني لازم نطبق |
|
|
|
6 |
|
00:00:24,540 --> 00:00:27,920 |
|
بعض الأشياء العملية مع بعض، سواء كنا هنشتغل بالـ |
|
|
|
7 |
|
00:00:27,920 --> 00:00:30,320 |
|
Python أو نشتغل بالـ RapidMiner، وهنجرب الاتنين |
|
|
|
8 |
|
00:00:30,320 --> 00:00:33,780 |
|
معاك، وفي بعض الـ slides اليوم هتكون جاهزة عليها |
|
|
|
9 |
|
00:00:33,780 --> 00:00:36,140 |
|
بعض الأكواد الـ Python اللي ممكن تفيدنا، بس من باب |
|
|
|
10 |
|
00:00:36,140 --> 00:00:42,560 |
|
التحفيز للتعامل مع الـ Python، على سبيل |
|
|
|
11 |
|
00:00:42,560 --> 00:00:45,400 |
|
المثال، يا رامي زي ما كنت بتقول، هنبدأ اليوم |
|
|
|
12 |
|
00:00:45,400 --> 00:00:49,080 |
|
محاضرتنا، كل المحاضرات الماضية اللي بنتكلم على الـ |
|
|
|
13 |
|
00:00:49,080 --> 00:00:52,060 |
|
data understanding، وقلنا مفهوم الـ data |
|
|
|
14 |
|
00:00:52,060 --> 00:00:55,020 |
|
understanding، إنه لازم أنا أكون فاهم الـ data اللي |
|
|
|
15 |
|
00:00:55,020 --> 00:00:57,760 |
|
عندي، أو familiar مع الـ data اللي عندي بشكل كويس |
|
|
|
16 |
|
00:00:57,760 --> 00:01:00,960 |
|
بحيث إنه كل ما أنا فهمت الـ data، بقدر أفهم إيش الـ |
|
|
|
17 |
|
00:01:00,960 --> 00:01:05,630 |
|
task اللي بدي إياها، بقدر أفهم أُحوِّر الـ data بحيث |
|
|
|
18 |
|
00:01:05,630 --> 00:01:08,490 |
|
أنا أُصبح متوافق مع الـ task اللي أنا بدي أروح لها، وكنا |
|
|
|
19 |
|
00:01:08,490 --> 00:01:12,590 |
|
بنطرح على حالنا مجموعة من الأسئلة، كان أهمها: هل الـ |
|
|
|
20 |
|
00:01:12,590 --> 00:01:15,830 |
|
data هذه relevant للـ topic ولا لأ؟ هل الـ data هذه |
|
|
|
21 |
|
00:01:15,830 --> 00:01:20,630 |
|
كافية، من أجل enough أو كافية من أجل إن أبني عليها |
|
|
|
22 |
|
00:01:20,630 --> 00:01:24,010 |
|
model ولا لأ؟ هل في مصادر أخرى للبيانات ممكن |
|
|
|
23 |
|
00:01:24,010 --> 00:01:27,350 |
|
تدعمني في هذا الاتجاه؟ هل الـ data هذه حقيقية ولا |
|
|
|
24 |
|
00:01:27,350 --> 00:01:33,390 |
|
صناعية؟ هل الـ data هذه مناسبة... بس كمان بتحل |
|
|
|
25 |
|
00:01:33,390 --> 00:01:37,390 |
|
المشكلة ولا بتحل الـ hash؟ قديمة ولا جديدة؟ فكل |
|
|
|
26 |
|
00:01:37,390 --> 00:01:41,650 |
|
الشغلات هذه كانت تتجه باتجاه واحد فقط، أني أكون |
|
|
|
27 |
|
00:01:41,650 --> 00:01:45,750 |
|
familiar مع البيانات اللي موجودة عندي، بعد ما احنا |
|
|
|
28 |
|
00:01:45,750 --> 00:01:48,730 |
|
وكنا طلبنا نهاية المحاضرة الماضية أن كل واحد فيكم |
|
|
|
29 |
|
00:01:48,730 --> 00:01:52,670 |
|
أو كل مجموعة، كل مجموعة تحدد two datasets، واحدة for |
|
|
|
30 |
|
00:01:52,670 --> 00:01:56,070 |
|
regression، واحدة for الـ classification، وكنا |
|
|
|
31 |
|
00:01:56,070 --> 00:02:00,270 |
|
زودناكم بـ examples، بعض الـ URLs اللي ممكن توجد منها |
|
|
|
32 |
|
00:02:00,270 --> 00:02:03,310 |
|
خلالها Data Sets، دلوقتي في Data Sets في الـ Open |
|
|
|
33 |
|
00:02:03,310 --> 00:02:06,350 |
|
Data Sets، في Google Open Data Sets، في شغلات كتيرة |
|
|
|
34 |
|
00:02:06,350 --> 00:02:09,810 |
|
في أي مكان، ممكن تختار الـ Data Set اللي موجودة، و |
|
|
|
35 |
|
00:02:09,810 --> 00:02:15,090 |
|
بقى ذكرنا، لازم تشكل مجموعة أو تنضم لمجموعة، بعد هي |
|
|
|
36 |
|
00:02:15,090 --> 00:02:20,710 |
|
كانت حصيلة الشغل جماعيًا، الـ data wrangling، عفواً، أو الـ |
|
|
|
37 |
|
00:02:20,710 --> 00:02:23,410 |
|
preprocessing، أو الـ data preparation زي ما بسميها |
|
|
|
38 |
|
00:02:23,410 --> 00:02:27,850 |
|
البعض، أن هو فعليًا أول خطوة على الـ real data، أنا |
|
|
|
39 |
|
00:02:27,850 --> 00:02:31,710 |
|
جبت الـ data set، سواء كانت text file أو data file |
|
|
|
40 |
|
00:02:31,710 --> 00:02:35,050 |
|
أو csv file أو excel file، بغض النظر إيش كانت |
|
|
|
41 |
|
00:02:35,050 --> 00:02:39,590 |
|
أصبحت الـ data هذه موجودة، وبالتالي بالنسبة لي الـ |
|
|
|
42 |
|
00:02:39,590 --> 00:02:45,080 |
|
data هذه غالباً هي عبارة عن الـ raw format، شو يعني |
|
|
|
43 |
|
00:02:45,080 --> 00:02:49,660 |
|
Raw Format؟ خام، بالنسبة لي في اللحظة اللي أنا بقول |
|
|
|
44 |
|
00:02:49,660 --> 00:02:53,300 |
|
إنه الجدول هذا أو الـ csv file هذا ما يحتاج... الآن |
|
|
|
45 |
|
00:02:53,300 --> 00:02:58,100 |
|
لا يحتاج أي شغل، بتصير الـ data هذه جاهزة أن أبني |
|
|
|
46 |
|
00:02:58,100 --> 00:03:02,880 |
|
عليها data mining task، تمام؟ وهذا الكلام ما يتم |
|
|
|
47 |
|
00:03:02,880 --> 00:03:06,620 |
|
إلا بعد بعض فحص، أو إجراء بعض التعديلات على |
|
|
|
48 |
|
00:03:06,620 --> 00:03:09,980 |
|
البيانات اللي موجودة عندي، من بعض الشغلات الخام، |
|
|
|
49 |
|
00:03:09,980 --> 00:03:12,960 |
|
يا عم، اللي أنا بتكلم عليها، لو كانت الـ data set |
|
|
|
50 |
|
00:03:12,960 --> 00:03:17,680 |
|
هي عبارة عن مجموعة من الصور، على سبيل المثال، طبيب |
|
|
|
51 |
|
00:03:17,680 --> 00:03:21,400 |
|
عظام قرر إنه بده يحاول يستخدم الـ data science |
|
|
|
52 |
|
00:03:21,400 --> 00:03:24,140 |
|
أو الـ data mining، وقال لك والله أنا بدي أعمل |
|
|
|
53 |
|
00:03:24,140 --> 00:03:29,920 |
|
برنامج، أديله صورة الأشعة، تمام؟ يبدأ هو يدور عن الـ |
|
|
|
54 |
|
00:03:29,920 --> 00:03:32,420 |
|
possible fractures الموجودة، سواء كان بلغتنا |
|
|
|
55 |
|
00:03:32,420 --> 00:03:36,700 |
|
البسيطة كسر واضح، أو شعر مش مبين، يعني بدي أبني |
|
|
|
56 |
|
00:03:36,700 --> 00:03:39,980 |
|
smart system عشان يحدد لي الـ fractures اللي ممكن |
|
|
|
57 |
|
00:03:39,980 --> 00:03:45,760 |
|
يصير في العظم، ممتاز، إيش الـ data تبعته؟ بيقول لي |
|
|
|
58 |
|
00:03:45,760 --> 00:03:51,820 |
|
والله أنا محتفظ بـ 100 ألف صورة أشعة، تمام؟ X-rays |
|
|
|
59 |
|
00:03:51,820 --> 00:03:55,900 |
|
موجودة لهذا المجال، وكلها... كلها شخصيًا بدي أحط |
|
|
|
60 |
|
00:03:55,900 --> 00:03:59,500 |
|
عليها label، هذه فيها كسر وبحدد لك مكانه، وهذه |
|
|
|
61 |
|
00:03:59,500 --> 00:04:02,860 |
|
فيها شعر وبحدد لك مكانه، عشان الـ system تبعته الآن |
|
|
|
62 |
|
00:04:02,860 --> 00:04:07,380 |
|
الـ raw data تبعته هي صور الأشعة، هاي طيب ماشي حاله، |
|
|
|
63 |
|
00:04:07,380 --> 00:04:10,300 |
|
بدنا special scanner، عملنا لها scanning ودخلناها |
|
|
|
64 |
|
00:04:10,300 --> 00:04:13,340 |
|
على الـ system، raw data، ما زالت في اللحظة اللي |
|
|
|
65 |
|
00:04:13,340 --> 00:04:17,740 |
|
بتقدر تحول الصورة هذه لجدول، لجداول تقدر تشتغل |
|
|
|
66 |
|
00:04:17,740 --> 00:04:21,860 |
|
تشتغل عليها mining، بتكون أنت فعليًا رحت باتجاه الـ |
|
|
|
67 |
|
00:04:21,860 --> 00:04:25,620 |
|
task الصحيحة، وخلصت من الـ raw data ووصلت لوين؟ |
|
|
|
68 |
|
00:04:25,620 --> 00:04:30,360 |
|
للقيمة أو للـ value اللي أنت بدك إياها، مثل تمامًا |
|
|
|
69 |
|
00:04:30,360 --> 00:04:35,010 |
|
المنقبين عن البترول، لأن هو أخذ، وصل لبئر النفط أو |
|
|
|
70 |
|
00:04:35,010 --> 00:04:38,290 |
|
حصل على البترول، لكن هذا البترول، أو هذا البترول |
|
|
|
71 |
|
00:04:38,290 --> 00:04:41,910 |
|
الخام غير مناسب للناس، فماذا يفعل؟ |
|
|
|
72 |
|
00:04:41,910 --> 00:04:44,290 |
|
بتدخلوا على مصانع التكرير عشان يصدر منه البنزين |
|
|
|
73 |
|
00:04:44,290 --> 00:04:48,110 |
|
والسولار إلى آخره، وبالتالي أنا بدي أروح الـ road |
|
|
|
74 |
|
00:04:48,110 --> 00:04:52,570 |
|
بحيث أنها تصبح suitable، أعالجها بحيث أنها تصبح |
|
|
|
75 |
|
00:04:52,570 --> 00:04:55,750 |
|
suitable للـ task أو للـ analysis اللي أنا بدي أشتغل |
|
|
|
76 |
|
00:04:55,750 --> 00:05:01,940 |
|
عليه، طبعًا الآن لما بتكلم على الـ data preparation، |
|
|
|
77 |
|
00:05:01,940 --> 00:05:07,240 |
|
عادة هي عبارة عن software by-blind، أو coding by |
|
|
|
78 |
|
00:05:07,240 --> 00:05:11,120 |
|
-blind، شو يعني by-blind يا شباب؟ خط... خط إنتاج |
|
|
|
79 |
|
00:05:11,120 --> 00:05:15,220 |
|
method، بتروح بتدور على الـ missing data وبتعالجها، |
|
|
|
80 |
|
00:05:15,220 --> 00:05:19,340 |
|
method ثانية، أو data ثانية بتعالج الـ inconsistent |
|
|
|
81 |
|
00:05:19,340 --> 00:05:24,570 |
|
data، ثالثة بتعالج مثلًا الـ noise data، وكل مخرج يعني |
|
|
|
82 |
|
00:05:24,570 --> 00:05:28,310 |
|
الآن بدخل الـ raw data للـ missing، الـ output تبع الـ |
|
|
|
83 |
|
00:05:28,310 --> 00:05:32,530 |
|
missing بروح بعده وبدخله عليه as input للـ noise |
|
|
|
84 |
|
00:05:32,530 --> 00:05:35,230 |
|
data، والـ noise data بتروح للـ inconsistent بعد |
|
|
|
85 |
|
00:05:35,230 --> 00:05:38,850 |
|
معالجتها، طبعًا، وبهيك كل مرحلة لحد ما بوصل لوين في |
|
|
|
86 |
|
00:05:38,850 --> 00:05:43,810 |
|
الآخر، أن الـ data هذه مناسبة، أصبحت صالحة للـ task |
|
|
|
87 |
|
00:05:43,810 --> 00:05:49,090 |
|
اللي أنا بدي أشتغل فيها، وبالتالي هذا بيقول إن الناس |
|
|
|
88 |
|
00:05:49,090 --> 00:05:51,390 |
|
اللي بدأت تشتغل في الـ data science أو في الـ data |
|
|
|
89 |
|
00:05:51,390 --> 00:05:53,750 |
|
preparation أو الـ data preprocessing أو الـ data |
|
|
|
90 |
|
00:05:53,750 --> 00:05:58,530 |
|
wrangling، لازم يتمتع بمجموعة من الصفات اللي لها |
|
|
|
91 |
|
00:05:58,530 --> 00:06:02,530 |
|
علاقة بالإحصاء، على سبيل المثال، ليش؟ لأن أنت بدك |
|
|
|
92 |
|
00:06:02,530 --> 00:06:07,910 |
|
تتعرف على البيانات، بدك |
|
|
|
93 |
|
00:06:07,910 --> 00:06:11,890 |
|
skills زي ما قلنا سابقًا، multidisciplinary |
|
|
|
94 |
|
00:06:13,700 --> 00:06:16,320 |
|
الـ course تبع الـ data mining، بدك statistic، بدك |
|
|
|
95 |
|
00:06:16,320 --> 00:06:19,240 |
|
database، بدك programming، وكل الـ skills هذه بتخدمك |
|
|
|
96 |
|
00:06:19,240 --> 00:06:27,500 |
|
في موضوع الـ preparation بالدرجة الأولى، طيب |
|
|
|
97 |
|
00:06:27,500 --> 00:06:31,160 |
|
بما أنه إحنا حاليًا، هنحتاج شغل، ونقول programming، |
|
|
|
98 |
|
00:06:31,160 --> 00:06:35,760 |
|
ونتكلم على pipeline بالـ Python، قلت لك أنا حاطط لك |
|
|
|
99 |
|
00:06:35,760 --> 00:06:40,270 |
|
روابط تنزل الـ Anaconda، مين نزلها شباب على جهازه؟ واحد |
|
|
|
100 |
|
00:06:40,270 --> 00:06:44,570 |
|
اثنين، ثلاثة، أربعة، خمسة، ستة، سبعة، ثمانية، تسعة، أنتم |
|
|
|
101 |
|
00:06:44,570 --> 00:06:49,730 |
|
ملاحظين يا شباب أن المادة ما فيهاش معمل، نزل الـ |
|
|
|
102 |
|
00:06:49,730 --> 00:06:52,330 |
|
Python Anaconda distribution أو الـ Spyder Anaconda |
|
|
|
103 |
|
00:06:52,330 --> 00:06:55,230 |
|
distribution على جهازك عشان تبدأ تشتغل، ليش أنا |
|
|
|
104 |
|
00:06:55,230 --> 00:06:59,130 |
|
قلت لك نزله؟ هيريحك من كل المكتبات، وينزلها لك حزمة |
|
|
|
105 |
|
00:06:59,130 --> 00:07:04,380 |
|
واحدة، بينما لو بدك تشتغل بالـ PyCharm، هتضطر تنزل الـ |
|
|
|
106 |
|
00:07:04,380 --> 00:07:07,500 |
|
libraries واحدة ورا الثانية، فأنت رايح ترهق نفسك وتشتغل |
|
|
|
107 |
|
00:07:07,500 --> 00:07:10,320 |
|
على الـ distribution جاهزة، بتريحك على الأقل في |
|
|
|
108 |
|
00:07:10,320 --> 00:07:11,360 |
|
موضوع الـ installation |
|
|
|
109 |
|
00:07:15,990 --> 00:07:19,870 |
|
هي IDE شاملة المكتبات كلها تبع الـ data science، |
|
|
|
110 |
|
00:07:19,870 --> 00:07:22,870 |
|
وبالتالي بدل ما أنا أروح أحول الـ IDE تبع الـ by |
|
|
|
111 |
|
00:07:22,870 --> 00:07:26,270 |
|
charm، تمام، عشان يسموها data science distribution، |
|
|
|
112 |
|
00:07:26,270 --> 00:07:30,150 |
|
أحيانًا بسموها، الآن بدل ما أروح أنا أنزل المكتبات |
|
|
|
113 |
|
00:07:30,150 --> 00:07:33,150 |
|
واحدة ورا الثانية، هو كل المكتبات جاهزة ضمن الـ |
|
|
|
114 |
|
00:07:33,150 --> 00:07:35,390 |
|
setup file اللي بنزله، وبالتالي مش هعمل download من |
|
|
|
115 |
|
00:07:35,390 --> 00:07:40,040 |
|
الـ internet لأي شيء، الآن، طبعًا المهم، إذا ما أقول إن |
|
|
|
116 |
|
00:07:40,040 --> 00:07:43,020 |
|
إحنا ممكن نستخدم الـ Python، وهذه لغة برمجة مهمة |
|
|
|
117 |
|
00:07:43,020 --> 00:07:46,200 |
|
جداً، ليش مع الـ Java؟ ما بدي الـ Java، الـ support إلها |
|
|
|
118 |
|
00:07:46,200 --> 00:07:50,860 |
|
أكثر، وهنشوف الآن بعض الشغلات، فعليًا أسهل مليون مرة |
|
|
|
119 |
|
00:07:50,860 --> 00:07:55,060 |
|
ما كنت أنا بدي أشتغلها وين؟ بالـ Java، وهعطيك مثال، |
|
|
|
120 |
|
00:07:55,060 --> 00:07:59,300 |
|
الآن، مثال بسيط جداً، المكتبات اللي بتلزمني في الـ |
|
|
|
121 |
|
00:07:59,300 --> 00:08:01,520 |
|
Python، إذا أنا بدي أشتغل على الـ PyCharm، معناته |
|
|
|
122 |
|
00:08:01,520 --> 00:08:06,270 |
|
ملزمني الـ NumPy، الـ numerical arrays في الـ Python، |
|
|
|
123 |
|
00:08:06,270 --> 00:08:09,710 |
|
وبالـ Pandas، اللي هي عبارة عن data framework، |
|
|
|
124 |
|
00:08:09,710 --> 00:08:13,510 |
|
من أجل أن أعمل store و retrieve للـ data، وأطبق |
|
|
|
125 |
|
00:08:13,510 --> 00:08:16,370 |
|
عليها بعض الـ methods الجاهزة اللي لها علاقة في الـ |
|
|
|
126 |
|
00:08:16,370 --> 00:08:20,710 |
|
preparation، من الشغلات البسيطة اللي ممكن تكون |
|
|
|
127 |
|
00:08:20,710 --> 00:08:24,350 |
|
motivation كويسة بالنسبة لنا جميعًا، كيف التعامل مع |
|
|
|
128 |
|
00:08:24,350 --> 00:08:27,970 |
|
الـ Python، لو أنا أجيت قلت لك في عندي two |
|
|
|
129 |
|
00:08:27,970 --> 00:08:29,050 |
|
dimensional array |
|
|
|
130 |
|
00:08:36,150 --> 00:08:41,450 |
|
ثلاثة في ثلاثة، وبده منها تاخد لي الصف أو العمود |
|
|
|
131 |
|
00:08:41,450 --> 00:08:47,870 |
|
الأخير لحاله كـ one dimensional array، إيش الـ code |
|
|
|
132 |
|
00:08:47,870 --> 00:08:51,990 |
|
اللي ممكن تكتبه به جافر؟ بتروح تعرف الـ array one |
|
|
|
133 |
|
00:08:51,990 --> 00:08:58,250 |
|
dimensional، هتقول له integer، الـ array تبعته A مثلًا، و |
|
|
|
134 |
|
00:08:58,250 --> 00:09:02,690 |
|
تقول له يا أخي إن هذا اسمها X، بدها تساوي new integer |
|
|
|
135 |
|
00:09:04,860 --> 00:09:09,880 |
|
ثلاثة، صح؟ بعدين هتروح تقول له for integer I equal |
|
|
|
136 |
|
00:09:09,880 --> 00:09:18,160 |
|
zero، الـ I أقل من أو تساوي اثنين، I plus plus، A of I |
|
|
|
137 |
|
00:09:18,160 --> 00:09:30,640 |
|
equal X of اثنين، إيه؟ قد إيش هي؟ I، اثنين، مصبوط؟ |
|
|
|
138 |
|
00:09:35,500 --> 00:09:42,740 |
|
بالـ Python بكل بساطة باجي بقول له a تساوي x |
|
|
|
139 |
|
00:09:42,740 --> 00:09:51,000 |
|
أو |
|
|
|
140 |
|
00:09:51,000 --> 00:09:55,660 |
|
حتى ممكن هذا مكتوب هيك، بس يبقى لا for |
|
|
|
141 |
|
00:09:55,660 --> 00:10:00,720 |
|
ولا حاجة، الفكرة وين يا شباب؟ إنه فعليًا من ناحية |
|
|
|
142 |
|
00:10:00,720 --> 00:10:06,620 |
|
simplicity، أسهل، وهي فرصة... فرصة لك تتعلم لغة |
|
|
|
143 |
|
00:10:06,620 --> 00:10:10,080 |
|
جديدة، الـ for هي الـ for، والـ F هي الـ F، نفس الـ |
|
|
|
144 |
|
00:10:10,080 --> 00:10:12,560 |
|
concept بس الـ syntax هو شوية اللي هيخلف... يخلف |
|
|
|
145 |
|
00:10:12,560 --> 00:10:15,060 |
|
معك، الآن، هذا الآن في الشغلات زي هاي، الـ |
|
|
|
146 |
|
00:10:15,060 --> 00:10:20,080 |
|
Python بتريحك جدًا في الكتابة، هاي، هذا الثلاث أسطر هي |
|
|
|
147 |
|
00:10:20,080 --> 00:10:24,120 |
|
عبارة عن سطر واحد فعليًا، لا أنا محدد نوع بيانات، |
|
|
|
148 |
|
00:10:24,120 --> 00:10:27,280 |
|
ولا أنا محدد نوع الـ for، بس اللي بيلزمني أحدد |
|
|
|
149 |
|
00:10:27,280 --> 00:10:31,400 |
|
أبعاد العمود اللي أنا بدي إياه، و لحاله بيشتغل الشغلة |
|
|
|
150 |
|
00:10:31,400 --> 00:10:36,140 |
|
الثانية، ممكن أنا الآن، هل في مجال يكون في عندي |
|
|
|
151 |
|
00:10:36,140 --> 00:10:41,520 |
|
تسميات للـ |
|
|
|
152 |
|
00:10:41,520 --> 00:10:45,660 |
|
attributes اللي موجودة عندي؟ لأ، ما في مجال مع الـ |
|
|
|
153 |
|
00:10:45,660 --> 00:10:49,040 |
|
Pandas، بصير في مجال أضيف تسمية للـ array أو للـ |
|
|
|
154 |
|
00:10:49,040 --> 00:10:56,000 |
|
data set، وبصير بروح بقول له أن الـ A equal X of T |
|
|
|
155 |
|
00:10:56,000 --> 00:11:01,240 |
|
ثلاثة، وخلصت، وبالتالي فيها شغل أسهل بكثير من الـ |
|
|
|
156 |
|
00:11:01,240 --> 00:11:06,990 |
|
Java وغيرها، إيه؟ هنشوف بعض الأكواد اللي برضه بسهولة |
|
|
|
157 |
|
00:11:06,990 --> 00:11:09,970 |
|
اللي هنفهمها برضه خلال المحاضرة هذه إن شاء الله، |
|
|
|
158 |
|
00:11:09,970 --> 00:11:14,530 |
|
تعال طيب، ننتقل لطريق الـ libraries اللي في |
|
|
|
159 |
|
00:11:14,530 --> 00:11:16,630 |
|
عينينا، بتلزمني في الـ data preparation بالدرجة |
|
|
|
160 |
|
00:11:16,630 --> 00:11:19,390 |
|
الأولى، تعال، أخد مثال بسيط في الـ code اللي موجود |
|
|
|
161 |
|
00:11:19,390 --> 00:11:23,770 |
|
قدامنا، الـ code اللي موجود قدامنا، عمل import للـ |
|
|
|
162 |
|
00:11:23,770 --> 00:11:27,670 |
|
Pandas، وروح |
|
|
|
163 |
|
00:11:27,670 --> 00:11:32,430 |
|
اعرف الـ Pandas، هي عبارة عن data framework للتعامل |
|
|
|
164 |
|
00:11:32,430 --> 00:11:36,010 |
|
واحدة من الاقتراحات تبعها، أني ممكن أنشئ جدول |
|
|
|
165 |
|
00:11:36,010 --> 00:11:40,570 |
|
جديد، أنشئ جدول جديد، فروح قلت له الـ Pandas dot data |
|
|
|
166 |
|
00:11:40,570 --> 00:11:45,310 |
|
framework، وزودت الـ data framework الـ constructor بـ |
|
|
|
167 |
|
00:11:45,310 --> 00:11:46,770 |
|
...بإيش يا شباب؟ |
|
|
|
168 |
|
00:11:46,770 --> 00:11:51,170 |
|
(Long pause) |
|
|
|
169 |
|
00:11:57,690 --> 00:12:01,630 |
|
الـ values تبعته، تمام، الـ index هي optional، |
|
|
|
170 |
|
00:12:01,630 --> 00:12:05,630 |
|
بالنسبة لنا، بنضيفها بعد الـ json عشان أقول له والله |
|
|
|
171 |
|
00:12:05,630 --> 00:12:07,870 |
|
فعلاً هي الـ items أو هي الـ index اللي أنا بدي أشتغل |
|
|
|
172 |
|
00:12:07,870 --> 00:12:14,270 |
|
معها، بغض النظر، هتفرق كتير، الآن لو أنا أقول |
|
|
|
173 |
|
00:12:14,270 --> 00:12:17,590 |
|
dictionary، كم واحد هيقول okay معك، موافق معك، بس |
|
|
|
174 |
|
|
|
223 |
|
00:15:40,710 --> 00:15:43,150 |
|
maximum و كم عدد الفرغات؟ بصير عارف أني بدي |
|
|
|
224 |
|
00:15:43,150 --> 00:15:47,810 |
|
أشتغل، طبعًا بإمكانك تعمل loop تمر على الـ titles |
|
|
|
225 |
|
00:15:47,810 --> 00:15:50,590 |
|
اللي هنا و تعمل description بشكل آلي، ما تكتب كل |
|
|
|
226 |
|
00:15:50,590 --> 00:15:55,970 |
|
واحد بشكل تلقائي. طيب، هذا الكلام أو هذه الـ slides ما |
|
|
|
227 |
|
00:15:55,970 --> 00:15:59,430 |
|
جبتها إلا من باب الـ motivation لك، أن الـ |
|
|
|
228 |
|
00:15:59,430 --> 00:16:03,490 |
|
python سهل و ممكن تعملها أو تكتبها، تعملها concord |
|
|
|
229 |
|
00:16:03,490 --> 00:16:11,110 |
|
ده أو تحتويها بشكل كويس خلال الفصل هذا، الـ rapid |
|
|
|
230 |
|
00:16:11,110 --> 00:16:15,290 |
|
minor خيار هنشوفه، هنشتغل عليه، لكن أنا بالنسبة لي |
|
|
|
231 |
|
00:16:15,290 --> 00:16:21,530 |
|
قد أعطي plus للي هيشتغل الـ python، وللي مش هيشتغل |
|
|
|
232 |
|
00:16:21,530 --> 00:16:22,490 |
|
الـ python هياخد minus |
|
|
|
233 |
|
00:16:40,350 --> 00:16:47,070 |
|
ممكن تحتوي على بعض الـ missing، الـ inconsistent، والـ |
|
|
|
234 |
|
00:16:47,070 --> 00:16:53,990 |
|
noise data الآن يا جماعة، noise data شو يعني؟ أخذناها |
|
|
|
235 |
|
00:16:53,990 --> 00:17:00,310 |
|
سابقا. اكتب اسمك هنا، و سجل جوابك، تمام؟ نقاش يعني |
|
|
|
236 |
|
00:17:00,310 --> 00:17:05,310 |
|
noise data يعني data فيها أشياء ممكن ما تفيدنيش، أو |
|
|
|
237 |
|
00:17:05,310 --> 00:17:08,950 |
|
فيها أشياء خاطئة. فيها أشياء خاطئة، صح؟ بس فيها data |
|
|
|
238 |
|
00:17:08,950 --> 00:17:14,490 |
|
ما تفيدنيش، مش صح. اكتب اسمك، عفوا، تمام؟ الآن noise |
|
|
|
239 |
|
00:17:14,490 --> 00:17:17,690 |
|
data يعني لو أنا فيه عندي قيم أو فيه عندي أخطاء في |
|
|
|
240 |
|
00:17:17,690 --> 00:17:24,170 |
|
القيم المدخلة، مثل الراتب بالسالب، تمام؟ طيب، عبدالله |
|
|
|
241 |
|
00:17:24,170 --> 00:17:27,430 |
|
صحي. محمد الكحلوت من جنبك، وقول لي شو يعني |
|
|
|
242 |
|
00:17:27,430 --> 00:17:35,070 |
|
inconsistent data؟ مش عارف، لأنك ما بتراجعش. لأ، ما بديش |
|
|
|
243 |
|
00:17:35,070 --> 00:17:38,450 |
|
إياك. أنت يا تامر، آه، يوسف، شو يعني inconsistent |
|
|
|
244 |
|
00:17:38,450 --> 00:17:39,230 |
|
data؟ |
|
|
|
245 |
|
00:17:42,500 --> 00:17:55,180 |
|
محمود أبو حية. محمود، صح؟ محمد أبو حية، محمود |
|
|
|
246 |
|
00:17:55,180 --> 00:17:56,740 |
|
أبو حية. محمود أبو حية. محمود أبو حية. محمود أبو حية |
|
|
|
247 |
|
00:17:56,740 --> 00:17:59,980 |
|
محمود أبو حية. محمود أبو حية. محمود أبو حية. محمود |
|
|
|
248 |
|
00:17:59,980 --> 00:18:02,800 |
|
أبو حية. محمود أبو حية. محمود أبو حية. محمود أبو حية |
|
|
|
249 |
|
00:18:02,800 --> 00:18:09,800 |
|
محمود أبو حية. محمود أبو حية. محمود أبو حية. مثلًا، |
|
|
|
250 |
|
00:18:09,800 --> 00:18:13,060 |
|
تاريخ ميلاده مبارح، هو في الـ Age مكتوب لـ 40 سنة، |
|
|
|
251 |
|
00:18:13,060 --> 00:18:17,840 |
|
تمام؟ Missing Data. هذه كلكم هتجاوبوها طبعًا، فضل. |
|
|
|
252 |
|
00:18:17,840 --> 00:18:21,260 |
|
Data مفقودة، إنه فعليًا الـAttribute هذا في |
|
|
|
253 |
|
00:18:21,260 --> 00:18:24,080 |
|
الـRecord هذا، الـValue تبعته فاضية، مش موجودة عندي. |
|
|
|
254 |
|
00:18:24,080 --> 00:18:27,400 |
|
وبالتالي، أنا لازم أقول، قلنا سابقًا كان عندنا |
|
|
|
255 |
|
00:18:27,400 --> 00:18:31,060 |
|
مصطلح Garbage In، Garbage Out. وبالتالي الـData |
|
|
|
256 |
|
00:18:31,060 --> 00:18:35,980 |
|
Quality شيء أساسي في الـData Mining. جودة البيانات |
|
|
|
257 |
|
00:18:35,980 --> 00:18:39,960 |
|
شيء أساسي في الـ Data Mining. وبالتالي، إذا أنت |
|
|
|
258 |
|
00:18:39,960 --> 00:18:44,060 |
|
فعليًا بدأت تشتغل، وجدت في الموضوع الـ Data |
|
|
|
259 |
|
00:18:44,060 --> 00:18:47,500 |
|
Preparation عبارة عن خطوة مهمة للـ Serious والـ |
|
|
|
260 |
|
00:18:47,500 --> 00:18:53,920 |
|
Effective والـ Real Data Mining Process. إيش علامات |
|
|
|
261 |
|
00:18:53,920 --> 00:19:00,040 |
|
جودة؟ .. علامات جودة الـ Data Set اللي موجودة عندي؟ |
|
|
|
262 |
|
00:19:00,040 --> 00:19:05,430 |
|
تقريبًا هي نفس الأسئلة اللي كنا بنطرحها سابقًا، عشان |
|
|
|
263 |
|
00:19:05,430 --> 00:19:10,010 |
|
تصحيح الـ data، الـ accuracy. قد ايش الـ data تبعتي هذه |
|
|
|
264 |
|
00:19:10,010 --> 00:19:18,330 |
|
دقيقة؟ قد ايش الـ data تبعتي صحيحة؟ هي، كل ما |
|
|
|
265 |
|
00:19:18,330 --> 00:19:22,290 |
|
كانت نسبة دقتها أعلى، كل ما كانت هذه أفضل، طبعًا. |
|
|
|
266 |
|
00:19:22,290 --> 00:19:30,380 |
|
مصدرها؟ مصدرها يعني، بنسأل الآن، الـ data اللي |
|
|
|
267 |
|
00:19:30,380 --> 00:19:34,060 |
|
فيها الـ values، أنت بتقدر تتحقق من كل record Raw by |
|
|
|
268 |
|
00:19:34,060 --> 00:19:38,920 |
|
Raw؟ أكيد لأ، لكن لما أنا بأعرف أن الـ data set هاي |
|
|
|
269 |
|
00:19:38,920 --> 00:19:45,080 |
|
طالعة مثلًا من الـ MIT، على رأي رامي، تمام؟ ولا طالعة |
|
|
|
270 |
|
00:19:45,080 --> 00:19:47,620 |
|
من جامعة إياد الشامي؟ لأ، أكيد اللي طالعة من الـ MIT، |
|
|
|
271 |
|
00:19:47,620 --> 00:19:53,060 |
|
من الـ MIT، مصدق؟ شكرًا، شكرًا على الثقة يا هاشم، |
|
|
|
272 |
|
00:19:53,060 --> 00:19:58,100 |
|
الآن، الفكرة وين يا جماعة الخير؟ الفكرة أنه مش كمان |
|
|
|
273 |
|
00:19:58,100 --> 00:20:02,040 |
|
تشوف الـ source، اللي هي الـ believability، قد ايش أنا |
|
|
|
274 |
|
00:20:02,040 --> 00:20:07,420 |
|
بوثق فيها، في مصدرها، لكن الآن، بتكلم على جودة |
|
|
|
275 |
|
00:20:07,420 --> 00:20:12,620 |
|
البيانات. جودة البيانات، عادةً، مش أنا صاحبها، الـ data |
|
|
|
276 |
|
00:20:12,620 --> 00:20:16,440 |
|
لما انجمعت، كانت صحيحة. لما انجمعت، آه، صح، بأثق في |
|
|
|
277 |
|
00:20:16,440 --> 00:20:21,580 |
|
المصدر، لكن قد ايش ممكن المصدر هذا يخطئ في الإدخال؟ |
|
|
|
278 |
|
00:20:22,050 --> 00:20:25,250 |
|
قد ايش الـ instrument اللي كنت أنا بأعتمد عليها في |
|
|
|
279 |
|
00:20:25,250 --> 00:20:29,730 |
|
القراءات دقيقة؟ بلاش نتكلم على مصدرها، أنا والله |
|
|
|
280 |
|
00:20:29,730 --> 00:20:32,770 |
|
واثق أن اللي جاييني من الـ MIT تمام، لكن كانوا |
|
|
|
281 |
|
00:20:32,770 --> 00:20:38,310 |
|
مسترخصين، و اخذين بعض الـ sensors من Taiwan، بينما في |
|
|
|
282 |
|
00:20:38,310 --> 00:20:42,270 |
|
sensors أوضح منها، وبالتالي، الـ data set اللي بيصير |
|
|
|
283 |
|
00:20:42,270 --> 00:20:47,430 |
|
فيها علامة استفهام، لأن بعض الـ equipments تبعتها في |
|
|
|
284 |
|
00:20:47,430 --> 00:20:51,170 |
|
الـ range تبعت الـ error تبعتها عالية. هذه المقصودة |
|
|
|
285 |
|
00:20:51,170 --> 00:20:56,850 |
|
بالـ Accuracy، على خلاف الـ Believability. قد ايش أنا |
|
|
|
286 |
|
00:20:56,850 --> 00:21:00,890 |
|
واثق من مصدر البيانات، وفي البيانات اللي موجودة |
|
|
|
287 |
|
00:21:00,890 --> 00:21:05,450 |
|
عندي. هلاحظ كمان مرة، أنا ما زلت بأتكلم على عوامل |
|
|
|
288 |
|
00:21:05,450 --> 00:21:09,630 |
|
إنّه كيف بدي، أو بدي أحاول أشكّ، كيف بدي أقيس جودة |
|
|
|
289 |
|
00:21:09,630 --> 00:21:13,230 |
|
أو إيش هي علامات جودة الـ data set؟ يعني لو قلنا لك |
|
|
|
290 |
|
00:21:13,230 --> 00:21:17,710 |
|
في تفاحة، وقلنا شو رأيك فيها؟ جودة التفاحة هاي، قد ايش |
|
|
|
291 |
|
00:21:17,710 --> 00:21:21,510 |
|
عبدالله؟ هي عبدالله، أيوة عبدالله، بناء على إيش؟ |
|
|
|
292 |
|
00:21:21,510 --> 00:21:26,650 |
|
بتطلع فيها، الله، التفاحة مبينة، جديدة، وطازة، وبتلمّع، |
|
|
|
293 |
|
00:21:26,650 --> 00:21:30,830 |
|
تمام؟ هاي واحد، ريحتها فواحة، ما فيش فيها لا ضرب |
|
|
|
294 |
|
00:21:30,830 --> 00:21:35,730 |
|
يمين ولا شمال، ولا محمد عضّها، مصدق؟ وبالأخير، في |
|
|
|
295 |
|
00:21:35,730 --> 00:21:40,950 |
|
الأخير، هاي العلامات، أنت بعينك بتقدر تحددها، طيب، |
|
|
|
296 |
|
00:21:40,950 --> 00:21:47,270 |
|
الآن completeness، قد ايش الـ data هاي كاملة، وبحيث |
|
|
|
297 |
|
00:21:47,270 --> 00:21:50,590 |
|
أنها توافق الـ task اللي أنا بدي إياها؟ سألنا سابقًا |
|
|
|
298 |
|
00:21:50,590 --> 00:21:54,230 |
|
على الـ different sources، والـ relevant، ومن الـ |
|
|
|
299 |
|
00:21:54,230 --> 00:21:58,170 |
|
expert. ليش؟ عشان أنا أكون متأكد أن الـ data الـ 6 |
|
|
|
300 |
|
00:21:58,170 --> 00:22:02,810 |
|
تبعتي هاي فعليًا بتنجز. الـ consistency، الـ consistency |
|
|
|
301 |
|
00:22:02,810 --> 00:22:07,150 |
|
قد ايش الـ data هاي consistent؟ ما هو، لما اتكلمنا |
|
|
|
302 |
|
00:22:07,150 --> 00:22:10,050 |
|
في الـ consistency، أنه ما هو المفهوم، أن أعدّل في |
|
|
|
303 |
|
00:22:10,050 --> 00:22:14,430 |
|
مكان، ومقنوط من التعديل في مكان ثاني، بس ما عدّلتش فيه، |
|
|
|
304 |
|
00:22:14,430 --> 00:22:17,030 |
|
فبتصير inconsistent. values الموجودة اللي عندي، |
|
|
|
305 |
|
00:22:17,030 --> 00:22:21,770 |
|
timeline is .. هاي شغلة مهمة يا جماعة الخير، عشان |
|
|
|
306 |
|
00:22:21,770 --> 00:22:24,650 |
|
يقول لي أن الـ data .. الـ data set اللي موجودة عندي |
|
|
|
307 |
|
00:22:24,650 --> 00:22:28,110 |
|
هل بتحل المشكلة اللي أنا بأشتغل عليها ولا لأ؟ يعني |
|
|
|
308 |
|
00:22:28,110 --> 00:22:33,810 |
|
أنا بدي أحاول أعمل prediction. ما هو، إذا حطيت الـ |
|
|
|
309 |
|
00:22:33,810 --> 00:22:37,210 |
|
mail، معناته هتصير أنك عندك .. في عندك مشكلة في الـ |
|
|
|
310 |
|
00:22:37,210 --> 00:22:41,440 |
|
consistency. مصدق؟ لأ، خلينا .. احنا عمّال بدنا |
|
|
|
311 |
|
00:22:41,440 --> 00:22:45,780 |
|
نصلّح، مش اللي بنخبص، تمام؟ وبالتالي، الـ data must be |
|
|
|
312 |
|
00:22:45,780 --> 00:22:54,440 |
|
inferred. إيش الحلول المتاحة قدامي في التعامل مع الـ |
|
|
|
313 |
|
00:22:54,440 --> 00:22:59,080 |
|
missing data؟ الآن، الـ missing، سواء كانت في one |
|
|
|
314 |
|
00:22:59,080 --> 00:23:05,220 |
|
value أو في two values في الـ record، تمام؟ في الآخر، |
|
|
|
315 |
|
00:23:05,220 --> 00:23:09,560 |
|
الـ record هذا فيه missing. لكن سؤال مهم جدًا، هل ممكن |
|
|
|
316 |
|
00:23:09,560 --> 00:23:14,980 |
|
كل الـ record يكون missing؟ بكونش موجود أساسًا، |
|
|
|
317 |
|
00:23:14,980 --> 00:23:18,220 |
|
فعلى الأقل الـ record بيكون فيه one value، والباقي |
|
|
|
318 |
|
00:23:18,220 --> 00:23:22,200 |
|
ممكن يكون null، مصدق؟ حسب المصدر. ففي الآخر، بغضّ |
|
|
|
319 |
|
00:23:22,200 --> 00:23:25,120 |
|
النظر، كان فيه عنده one value، one missing value or |
|
|
|
320 |
|
00:23:25,120 --> 00:23:28,400 |
|
more. فهذا الـ record بيحتوي على missing، أو هذا الـ |
|
|
|
321 |
|
00:23:28,400 --> 00:23:34,520 |
|
attribute الآن صار بيحتوي على missing. أسلم حل، أن |
|
|
|
322 |
|
00:23:34,520 --> 00:23:39,040 |
|
أحذف الـ rows اللي بتحتوي على الـ missing، وأريح حل، |
|
|
|
323 |
|
00:23:39,040 --> 00:23:43,100 |
|
تمام. |
|
|
|
324 |
|
00:23:43,100 --> 00:23:47,680 |
|
عشان أنا بدي أحط حلول صحيحة، وبدي أجيب value صحيحة، |
|
|
|
325 |
|
00:23:47,680 --> 00:23:53,680 |
|
عشان أحصل الحل صح، أو عفواً، أصلّح حل صح. الآن، لو كانت |
|
|
|
326 |
|
00:23:53,680 --> 00:24:01,080 |
|
الـ data اللي عندي 100 ألف row، وبعد عملية الحذف، |
|
|
|
327 |
|
00:24:02,200 --> 00:24:08,920 |
|
بعد عملية الحذف، صارت اللي هي 95 ألف row. أنا |
|
|
|
328 |
|
00:24:08,920 --> 00:24:12,940 |
|
بالنسبة لي، مش فارق كبير، مش big deal، مش زعلان كثير، |
|
|
|
329 |
|
00:24:12,940 --> 00:24:19,920 |
|
أقول لك، لو صارت 50 ألف، برضه بالنسبة لي مش كتير، لأن |
|
|
|
330 |
|
00:24:19,920 --> 00:24:24,160 |
|
الـ data لسة still enough، يعني فيها كم .. لأ، بقى |
|
|
|
331 |
|
00:24:24,160 --> 00:24:27,180 |
|
ممكن أستخرج منه، لكن لو ضليت حافظ على الـ 100 ألف، |
|
|
|
332 |
|
00:24:27,180 --> 00:24:27,880 |
|
أحسن وأحسن. |
|
|
|
333 |
|
00:24:31,060 --> 00:24:35,300 |
|
لأن احنا اتكلمنا سابقًا، how much big is your data؟ |
|
|
|
334 |
|
00:24:35,300 --> 00:24:39,400 |
|
كده، حجم البيانات اللي عندك؟ لأن كل row بمثابة |
|
|
|
335 |
|
00:24:39,400 --> 00:24:42,960 |
|
تعزيز للـ pattern، أو تعزيز للـ knowledge اللي أنا |
|
|
|
336 |
|
00:24:42,960 --> 00:24:48,800 |
|
بدأ أستخرجها، لكن في المقابل، اللي كانوا عندي ألف |
|
|
|
337 |
|
00:24:48,800 --> 00:24:57,560 |
|
record، صاروا تسعمية وخمسين، acceptable، لكن صاروا |
|
|
|
338 |
|
00:24:57,560 --> 00:25:05,430 |
|
خمسمية، لا يعني، وقف. على الرغم أن هذا نص وهذا نص، 50 |
|
|
|
339 |
|
00:25:05,430 --> 00:25:11,590 |
|
ألف، نص، 50%، بس العدد بيفرق معي، 500 row is not |
|
|
|
340 |
|
00:25:11,590 --> 00:25:15,430 |
|
enough to train or to build a model، في معظم |
|
|
|
341 |
|
00:25:15,430 --> 00:25:22,010 |
|
الأحيان. طيب، مش الحل، بدك تجيب data set ثاني، لو |
|
|
|
342 |
|
00:25:22,010 --> 00:25:26,600 |
|
متوفرة؟ طيب، مش متوفرة، غير الألف هدول، بدي أبدأ |
|
|
|
343 |
|
00:25:26,600 --> 00:25:31,500 |
|
أعبي الـ missing data، بدي أبدأ أعبي الـ missing data |
|
|
|
344 |
|
00:25:31,500 --> 00:25:37,640 |
|
اللي موجودة عندهم. كيف بدي أعبيها؟ manually، بشكل |
|
|
|
345 |
|
00:25:37,640 --> 00:25:41,840 |
|
manual، يعني بدي أمر على كل row، أو كل عمود، row by |
|
|
|
346 |
|
00:25:41,840 --> 00:25:47,660 |
|
row، وأعبي الـ value اللي فيه. ممكن |
|
|
|
347 |
|
00:25:47,660 --> 00:25:53,260 |
|
شباب، الـ manual filling لا يعني بالضرورة أن أنا 100 |
|
|
|
348 |
|
00:25:53,260 --> 00:25:58,870 |
|
% صح، تمام؟ أنا خارجة، لما بدي أتكلم على الـ manual |
|
|
|
349 |
|
00:25:58,870 --> 00:26:02,090 |
|
filling، بدي أروح أقول له، أين الـ document الأصلية |
|
|
|
350 |
|
00:26:02,090 --> 00:26:05,570 |
|
تبعتك اللي اعتمدتها، أو وين ممكن أجيء القيمة هذه، |
|
|
|
351 |
|
00:26:05,570 --> 00:26:11,700 |
|
ففي جهود، لكن مش .. ولو أنا رجعت للـ guessing، في |
|
|
|
352 |
|
00:26:11,700 --> 00:26:15,280 |
|
موضوع الـ guessing، الأصل يكون .. يعني لما بدي أخمن، |
|
|
|
353 |
|
00:26:15,280 --> 00:26:17,560 |
|
بدي، هتكون الـ value تبقى .. بدي تكون فيه confident، |
|
|
|
354 |
|
00:26:17,560 --> 00:26:22,440 |
|
يعني لما قلنا قبل شوية، متزوج، أو الـ status، الـ |
|
|
|
355 |
|
00:26:22,440 --> 00:26:26,160 |
|
marital status، متزوج، married، وفي pregnant، و |
|
|
|
356 |
|
00:26:26,160 --> 00:26:30,020 |
|
مفقود عند الـ gender، ما فهمش .. ما فيش، عاجلين، إثنين |
|
|
|
357 |
|
00:26:30,020 --> 00:26:34,050 |
|
بيختلفوا على إنه دي female، مصدق؟ وبالتالي، هذا |
|
|
|
358 |
|
00:26:34,050 --> 00:26:37,570 |
|
الكلام في هذه الشغلات، بيصير الـ guessing. محمود، الآن، |
|
|
|
359 |
|
00:26:37,570 --> 00:26:42,970 |
|
باجي أقول أن والله، الطلاب اللي موجودين عندي في |
|
|
|
360 |
|
00:26:42,970 --> 00:26:49,410 |
|
المدرسة، أعمارهم تتراوح من عشرة إلى ثلاث عشر سنة، وأجيء |
|
|
|
361 |
|
00:26:49,410 --> 00:26:54,690 |
|
الطالب عمره مش موجود، وتاريخ ميلاده مش موجود. لو |
|
|
|
362 |
|
00:26:54,690 --> 00:26:59,190 |
|
حذفته، تمام؟ احنا الآن خلصنا من موضوع الحذف، بدي أملأ |
|
|
|
363 |
|
00:26:59,190 --> 00:27:05,220 |
|
الـ data، بدي أملأ الـ data، إيش، أعبيها؟ لو حطيتها 12 |
|
|
|
364 |
|
00:27:05,220 --> 00:27:09,360 |
|
بالمتوسط، بيمشي الحال، أثبت؟ هاي الـ guessing، ممكن |
|
|
|
365 |
|
00:27:09,360 --> 00:27:13,980 |
|
لو أنا شوفت عمر الولد، أو أروح أسأله، فلان، أنت في |
|
|
|
366 |
|
00:27:13,980 --> 00:27:17,760 |
|
أي صف؟ طلع فيك هيك، جاك في صف سادس، |
|
|
|
367 |
|
00:27:20,950 --> 00:27:24,330 |
|
ماشي، مصدق ولا لأ؟ إذا أنت حاسس أنه والله ممكن |
|
|
|
368 |
|
00:27:24,330 --> 00:27:28,650 |
|
الطالب هذا يكون مثلًا، أعاد سنة أو سنتين، فممكن تحطه |
|
|
|
369 |
|
00:27:28,650 --> 00:27:31,730 |
|
في بناء .. خلاص، بتصير happy guessing، محمود، وهذا |
|
|
|
370 |
|
00:27:31,730 --> 00:27:36,250 |
|
الكلام يصير تمام، لكن |
|
|
|
371 |
|
00:27:36,250 --> 00:27:41,030 |
|
عملية التعبئة الـ manual، أو التعبئة اليدوية للقيم |
|
|
|
372 |
|
00:27:41,030 --> 00:27:53,290 |
|
المفقودة، مملة وغير مشوقة، خلينا نشوف إيش غير مشوقة؟ |
|
|
|
373 |
|
00:27:53,290 --> 00:27:58,410 |
|
لأنه مكلفة، مقارنة بالجهد اللي هيصير. مش مشوقة، |
|
|
|
374 |
|
00:27:58,410 --> 00:28:05,070 |
|
كثير. automatic، برمجيًا، برمجيًا، الخيارات اللي قدامي، |
|
|
|
375 |
|
00:28:05,070 --> 00:28:09,490 |
|
أن أروح على كل الـ missing، وأحط فيها global |
|
|
|
376 |
|
00:28:09,490 --> 00:28:16,130 |
|
constant. شو يعني global constant؟ أي رمز، بحيث أن |
|
|
|
377 |
|
00:28:16,130 --> 00:28:17,290 |
|
الرمز هذا يصير unknown. |
|
|
|
378 |
|
00:28:20,640 --> 00:28:24,720 |
|
بأعرف إنها missing، وفي نفس الوقت، لو بدّي أنبنى |
|
|
|
379 |
|
00:28:24,720 --> 00:28:29,360 |
|
عليها decision لاحقًا، في حالة الـ unknown بيكون كذا، |
|
|
|
380 |
|
00:28:29,360 --> 00:28:36,140 |
|
على سبيل المثال، if كذا، else if كذا، else if كذا، طيب، |
|
|
|
381 |
|
00:28:36,140 --> 00:28:40,580 |
|
الـ else الأخيرة، لو ما كانت ولا واحدة من هدول، في |
|
|
|
382 |
|
00:28:40,580 --> 00:28:44,620 |
|
حالة الـ switch case، case، case كذا، في الآخر بحط له |
|
|
|
383 |
|
00:28:44,620 --> 00:28:47,900 |
|
default، لو ما كانتش ولا واحدة من هدول، بصير بقول له أنا |
|
|
|
384 |
|
00:28:47,900 --> 00:28:53,830 |
|
في حالة الـ unknown. ممكن أخد decision، تمام؟ هذه ميزة، |
|
|
|
385 |
|
00:28:53,830 --> 00:29:00,630 |
|
أو أهمية للـ global constant، لكنه مش مفضل برضه، ليش؟ |
|
|
|
386 |
|
00:29:00,630 --> 00:29:03,910 |
|
لأن كل ما كانت الـ rule تبعتي مبنية على fixed value، |
|
|
|
387 |
|
00:29:03,910 --> 00:29:08,970 |
|
يكون أحسن. كنت بقى تقول حاجة، جوابت عليك؟ ماشي الحال. |
|
|
|
388 |
|
00:29:08,970 --> 00:29:14,010 |
|
ممكن أعبيها automatic بالـ mean أو الـ median، |
|
|
|
389 |
|
00:29:14,01 |
|
|
|
445 |
|
00:34:32,900 --> 00:34:37,500 |
|
الشخص مريض أو غير مريض ربح ولا خسر، مظبوط؟ مش عارف |
|
|
|
446 |
|
00:34:37,500 --> 00:34:42,520 |
|
وبالتالي في حالة زي هذه أروح بحذف الـ record اللي |
|
|
|
447 |
|
00:34:42,520 --> 00:34:49,540 |
|
مافيش Target لأن نسبة الخطأ بهذه الحالة ستكون أكبر |
|
|
|
448 |
|
00:34:49,540 --> 00:34:54,160 |
|
واحد. الآن بما أن الحذف هو الحل الأمثل بالنسبة لي |
|
|
|
449 |
|
00:34:54,160 --> 00:34:58,820 |
|
الحل الأمثل، فأنا ممكن أروح أُحدد الـ rows الـ raw |
|
|
|
450 |
|
00:34:58,820 --> 00:35:03,620 |
|
اللي أنا بدي أحذفه، مثلاً بدي أحذف الـ raw رقم |
|
|
|
451 |
|
00:35:03,620 --> 00:35:08,620 |
|
واحد، اثنين، ثلاثة، أربعة، خمسة، ستة، سبعة. هاروح أقول له |
|
|
|
452 |
|
00:35:08,620 --> 00:35:15,960 |
|
بكل بساطة الـ dataset تبعتي .drop، بدي أعطيه الـ |
|
|
|
453 |
|
00:35:15,960 --> 00:35:22,050 |
|
index تبع الـ row اللي هي، هنقول مثلاً أربعة أربعة |
|
|
|
454 |
|
00:35:22,050 --> 00:35:28,270 |
|
in place = True، لأنه إذا أنا قلت له False |
|
|
|
455 |
|
00:35:28,270 --> 00:35:33,390 |
|
هذا يعني أني أنا بحاجة لـ dataset جديد، بيصير كذا |
|
|
|
456 |
|
00:35:33,390 --> 00:35:37,530 |
|
لأنه سيقوم بإنشاء dataset جديد بعد الحذف، إذا |
|
|
|
457 |
|
00:35:37,530 --> 00:35:41,070 |
|
أنا قلت له in place، سيحدث التغيير على نفس الـ dataset |
|
|
|
458 |
|
00:35:41,070 --> 00:35:44,570 |
|
اللي إحنا شغالين عليها، تمام؟ هذا الفرق بين |
|
|
|
459 |
|
00:35:44,570 --> 00:35:49,070 |
|
الـ True والـ False. الـ axis عشان يقول لي أنت بدك |
|
|
|
460 |
|
00:35:49,070 --> 00:35:56,870 |
|
تحذف من الصفوف أم من الأعمدة. طيب تعالَ نأخذ |
|
|
|
461 |
|
00:35:56,870 --> 00:36:00,310 |
|
مثال. هذه الـ dataset تبعتنا، وليكن اسم هذه الـ dataset |
|
|
|
462 |
|
00:36:00,310 --> 00:36:05,250 |
|
اسمها data، وأنا قررت أحذف row أو أحذف |
|
|
|
463 |
|
00:36:05,250 --> 00:36:10,650 |
|
عمود. هذا الـ code سيقوم بتغيير الـ argument، ويقوم بحذف الصف |
|
|
|
464 |
|
00:36:10,650 --> 00:36:14,780 |
|
أو العمود. لو أنا بدي أعمله بـ Java، أو بدك تقوم |
|
|
|
465 |
|
00:36:14,780 --> 00:36:20,420 |
|
ببرنامج لحذف في العمود أو الصف، بدك تعمل for loop و |
|
|
|
466 |
|
00:36:20,420 --> 00:36:25,000 |
|
بدك تعرف الـ array بـ dimension أقل، مظبوط؟ سواء كان |
|
|
|
467 |
|
00:36:25,000 --> 00:36:28,160 |
|
dimension أو بتعرف الصف أو العمود أقل، وبالتالي بدك |
|
|
|
468 |
|
00:36:28,160 --> 00:36:31,700 |
|
تُسير وتأخذ وتنقل من array لـ array، ولما تصل لـ |
|
|
|
469 |
|
00:36:31,700 --> 00:36:34,220 |
|
certain row أو الـ certain attribute، تعمله ignore |
|
|
|
470 |
|
00:36:34,220 --> 00:36:39,060 |
|
وتأخذ اللي بعده، مظبوط؟ بينما هذا سطر واحد |
|
|
|
471 |
|
00:36:39,060 --> 00:36:43,980 |
|
فقد حَلّ المشكلة. الفكرة أنك تروح تعمل |
|
|
|
472 |
|
00:36:43,980 --> 00:36:49,440 |
|
implementation للشغل من الصفر، بس فعلياً أنت الآن |
|
|
|
473 |
|
00:36:49,440 --> 00:36:53,580 |
|
أنتَ، كـ user أو كـ developer، لما أعرف أن الآن في |
|
|
|
474 |
|
00:36:53,580 --> 00:36:55,780 |
|
حدّ فيكم بيروح بيعمل implementation لـ power |
|
|
|
475 |
|
00:36:55,780 --> 00:36:58,840 |
|
method بـ Java، بيروح بيقول ولا بيستخدم الموجود |
|
|
|
476 |
|
00:36:58,840 --> 00:37:03,490 |
|
power. طيب ما إحنا بنعرف كيف نعملها implementation، بس |
|
|
|
477 |
|
00:37:03,490 --> 00:37:08,110 |
|
ما نستخدمهاش، ليش؟ لأنها جاهزة، نفس الـ complexity، صحيح، بس |
|
|
|
478 |
|
00:37:08,110 --> 00:37:11,690 |
|
من ناحية أني أنا كـ developer، صارت أسهل في الاستخدام |
|
|
|
479 |
|
00:37:11,690 --> 00:37:17,650 |
|
طيب، فأنا ممكن أُحدث صفّاً أو عموداً حسب حاجتي، مع تغيير |
|
|
|
480 |
|
00:37:17,650 --> 00:37:24,130 |
|
الـ axis. إذا أنا بدي أحدث الـ attribute، لو لاقيت فيه |
|
|
|
481 |
|
00:37:24,130 --> 00:37:27,630 |
|
Null، certain attribute، وليه يكون الـ label على سبيل |
|
|
|
482 |
|
00:37:27,630 --> 00:37:31,130 |
|
المثال، أو الـ A أو الـ B، بدي أحدث، يعني إذا مجرد |
|
|
|
483 |
|
00:37:31,130 --> 00:37:37,590 |
|
ما ألاقي فراغ في العمود هذا، بدي أحذفه. قلنا هذا |
|
|
|
484 |
|
00:37:37,590 --> 00:37:40,290 |
|
أكثر شيء مهم مع الـ label، بما أن الـ label هذا |
|
|
|
485 |
|
00:37:40,290 --> 00:37:44,310 |
|
موجود، مش... عفواً... الـ label هذا مفقود، فالـ row |
|
|
|
486 |
|
00:37:44,310 --> 00:37:49,370 |
|
هذا بدي أحذفه، يعني ببساطة بدي أحذف الـ rows اللي |
|
|
|
487 |
|
00:37:49,370 --> 00:37:54,000 |
|
فيها الـ label مفقود. بدي أحذف الـ rows اللي فيها الـ |
|
|
|
488 |
|
00:37:54,000 --> 00:37:58,740 |
|
label مفقود. يعني ببساطة، الحذف سيكون تبع للـ Null |
|
|
|
489 |
|
00:37:58,740 --> 00:38:02,120 |
|
في certain attribute. كل اللي بيلزم أعرفه، إيش الـ |
|
|
|
490 |
|
00:38:02,120 --> 00:38:05,380 |
|
title أو إيش الـ index تبعته. فبقول له الـ data |
|
|
|
491 |
|
00:38:05,380 --> 00:38:14,200 |
|
dataset.notnull. هنا إيش... إيش اللي صار فعلياً هنا؟ |
|
|
|
492 |
|
00:38:14,200 --> 00:38:21,400 |
|
هو أخذ نسخة من الـ data اللي إلها قيم |
|
|
|
493 |
|
00:38:21,400 --> 00:38:27,140 |
|
وتجاهل الـ Null. يعني ببساطة، هو راح يقوم بـ |
|
|
|
494 |
|
00:38:27,140 --> 00:38:30,060 |
|
generation لـ new dataset، فيها واحد، اثنين، |
|
|
|
495 |
|
00:38:30,060 --> 00:38:35,980 |
|
ثلاثة، أربعة، خمسة، ستة، six rows فقط. بس الآن، لما |
|
|
|
496 |
|
00:38:35,980 --> 00:38:39,120 |
|
يكون أني أنا استخدمت نفس الـ dataframe name |
|
|
|
497 |
|
00:38:39,120 --> 00:38:43,600 |
|
فأحطه، أعمل override، تمام؟ بس الأصل أنه سيقوم بـ |
|
|
|
498 |
|
00:38:43,600 --> 00:38:49,770 |
|
generation لـ new dataset. وهيك أنا خلصت من الـ rows |
|
|
|
499 |
|
00:38:49,770 --> 00:38:55,910 |
|
اللي مافيهاش label. إذا أنا وين ما ألاقي في الصف |
|
|
|
500 |
|
00:38:55,910 --> 00:39:02,510 |
|
Null، بغض النظر، في كل الـ data الستة تبعتي، وين ما |
|
|
|
501 |
|
00:39:02,510 --> 00:39:05,750 |
|
ألاقي Null، بدي أحذف الـ row. بيلجأ للـ command |
|
|
|
502 |
|
00:39:05,750 --> 00:39:11,830 |
|
الأخير، data.dropna. مش بروح بساوي |
|
|
|
503 |
|
00:39:11,830 --> 00:39:16,350 |
|
بيصير يعمل scanning على الـ rows، الـ rows، الـ row |
|
|
|
504 |
|
00:39:16,350 --> 00:39:21,530 |
|
اللي فيه Null، بيحذفه، بدون ما أُحدد هنا. كان بناءً على |
|
|
|
505 |
|
00:39:21,530 --> 00:39:25,750 |
|
certain attribute، أخذ اللي فيهم الـ data و ساب |
|
|
|
506 |
|
00:39:25,750 --> 00:39:30,190 |
|
الـ Null. لكن هنا، سيمرّ على الـ row، كلها، هي الـ |
|
|
|
507 |
|
00:39:30,190 --> 00:39:34,650 |
|
row الأول فيه Null، بغض النظر في أي مكان، سيحذفه |
|
|
|
508 |
|
00:39:34,650 --> 00:39:39,210 |
|
وبالتالي هذا سيحذف، وهذا سيحذف، وهذا سيحذف. |
|
|
|
509 |
|
00:39:41,960 --> 00:39:45,720 |
|
شو صار في الـ dataset كلها؟ الحدث قد فرّغ الـ data |
|
|
|
510 |
|
00:39:45,720 --> 00:39:51,600 |
|
set اللي أنا عملت لها sample. عشان هيك هذا كويس ومريح |
|
|
|
511 |
|
00:39:51,600 --> 00:40:04,040 |
|
بس متى مباشرة أروح أقول له print، print data. |
|
|
|
512 |
|
00:40:04,040 --> 00:40:10,820 |
|
shape، هيقول لي مثلاً 100 ألف record و 15 attribute |
|
|
|
513 |
|
00:40:12,800 --> 00:40:18,240 |
|
بعد ما أكون نفّذت العملية هذه، أروح أقول له print كمان |
|
|
|
514 |
|
00:40:18,240 --> 00:40:24,220 |
|
مرة، الـ data.shape، هيديني |
|
|
|
515 |
|
00:40:24,220 --> 00:40:32,960 |
|
رقم، جالي خمسة آلاف وخمسة عشر. لا يا عمي، خلاص، ما هي |
|
|
|
516 |
|
00:40:32,960 --> 00:40:36,680 |
|
already أنا حلّيتها في الـ data set الجديدة، فالفكرة بتصير |
|
|
|
517 |
|
00:40:36,680 --> 00:40:41,340 |
|
أقدر أفهم أنا قد ايش حجم الجزء اللي انحذف، وهذا |
|
|
|
518 |
|
00:40:41,340 --> 00:40:46,000 |
|
بالنسبة لي أريح. عملية الحذف، لو أنا فعلياً حافظت على |
|
|
|
519 |
|
00:40:47,200 --> 00:40:50,420 |
|
البيانات... خلّيني أقول نسبة وجود البيانات بشكل كويس |
|
|
|
520 |
|
00:40:50,420 --> 00:40:54,160 |
|
يعني زي ما قلنا سابقاً، كانت مئة ألف، وقال لي |
|
|
|
521 |
|
00:40:54,160 --> 00:40:58,200 |
|
صار في عندك خمسين ألف record، okay، ممكن أمشي فيها |
|
|
|
522 |
|
00:40:58,200 --> 00:41:01,000 |
|
لكن إذا قال لي والله ظلّ... ظلّ عندك خمسة وتسعون |
|
|
|
523 |
|
00:41:01,000 --> 00:41:05,160 |
|
ألف، يكون أحسن وأحسن. لكن قال لي خمسة آلاف، لا، يعني هذه |
|
|
|
524 |
|
00:41:05,160 --> 00:41:09,400 |
|
العملية ما بتنفعش، لازم أعمل refill أو Alternative |
|
|
|
525 |
|
00:41:09,400 --> 00:41:14,060 |
|
وبالتالي، أسهل حاجة إيش أسوي؟ أسهل حاجة، الحدث، بس |
|
|
|
526 |
|
00:41:14,060 --> 00:41:31,900 |
|
ما يكونش بأثر على حجم الـ dataset اللي عندك، تخزين |
|
|
|
527 |
|
00:41:31,900 --> 00:41:36,220 |
|
البيانات، بشكل manual أو |
|
|
|
528 |
|
00:41:36,220 --> 00:41:43,690 |
|
بدي أعبي الـ missing هذه بشكل manual، بشكل manual، okay. |
|
|
|
529 |
|
00:41:43,690 --> 00:41:46,390 |
|
معناته أنا بدي أعرف الـ attribute هذا، أو عفواً، الـ |
|
|
|
530 |
|
00:41:46,390 --> 00:41:49,710 |
|
value هذه، في أي صف وأي عمود، بدي أعرف الـ index |
|
|
|
531 |
|
00:41:49,710 --> 00:41:53,470 |
|
تبعتها. ممكن أنا أكتب code عشان يعبيها، وممكن أكون |
|
|
|
532 |
|
00:41:53,470 --> 00:41:56,530 |
|
أفتح الـ dataset من خلال الـ Excel sheet تبعتي، و |
|
|
|
533 |
|
00:41:56,530 --> 00:42:00,310 |
|
أروح أعدلها بشكل مباشر، وأعمل reload للـ data، لكن |
|
|
|
534 |
|
00:42:00,310 --> 00:42:03,890 |
|
إذا بتعتمد على الـ index، في عندي index location 9,2. |
|
|
|
535 |
|
00:42:03,890 --> 00:42:08,230 |
|
الصف التاسع، العمود الثاني، حط الـ value بالشكل هذا. |
|
|
|
536 |
|
00:42:08,900 --> 00:42:12,080 |
|
إذا أنا بدي أحطها بالـ mean، أو بدي أخزن الـ value |
|
|
|
537 |
|
00:42:12,080 --> 00:42:15,480 |
|
automatically بالـ mean أو الـ median، الأمر بسيط جداً، |
|
|
|
538 |
|
00:42:15,480 --> 00:42:21,340 |
|
الآن الـ dataset تبعتي مع |
|
|
|
539 |
|
00:42:21,340 --> 00:42:27,900 |
|
الـ attribute، أو الـ data مع الـ attribute، مع A1 شو |
|
|
|
540 |
|
00:42:27,900 --> 00:42:35,560 |
|
بدها تساوي؟ نفس الـ attribute A1 |
|
|
|
541 |
|
00:42:35,560 --> 00:42:42,980 |
|
.fillna. شو يعني fillna؟ في الـ attribute |
|
|
|
542 |
|
00:42:42,980 --> 00:42:50,020 |
|
الفلاني اللي هو أي واحد، عبي الـ not available بـ |
|
|
|
543 |
|
00:42:50,020 --> 00:42:55,420 |
|
certain value. لو أنا قلت له 15 أو 10، سيأخذ الـ |
|
|
|
544 |
|
00:42:55,420 --> 00:42:58,740 |
|
15 والـ 10، سيعبيها في كل الـ attribute، عفواً، في |
|
|
|
545 |
|
00:42:58,740 --> 00:43:02,450 |
|
كل الـ rows الفاضية في الـ attribute هذا. في الـ not |
|
|
|
546 |
|
00:43:02,450 --> 00:43:06,970 |
|
available. لكن أنا بدي إياه يروح يحسب للمتوسط تبع |
|
|
|
547 |
|
00:43:06,970 --> 00:43:14,090 |
|
العمود هذا. فبروح بأخذ الـ data كمان مرة، الـ A1 ضد الـ |
|
|
|
548 |
|
00:43:14,090 --> 00:43:19,750 |
|
mean as a function، أو |
|
|
|
549 |
|
00:43:19,750 --> 00:43:24,010 |
|
ممكن آخذ الـ mean هذه as a value سابقاً وأعطيه إياها |
|
|
|
550 |
|
00:43:24,010 --> 00:43:27,850 |
|
فمش فارق كتير معي. وبهيك أصبحت أنا بأخذ الـ mean |
|
|
|
551 |
|
00:43:28,910 --> 00:43:31,770 |
|
تبع الـ values اللي موجودة. طبعاً ممكن بكل بساطة |
|
|
|
552 |
|
00:43:31,770 --> 00:43:34,910 |
|
أستبدلها بالـ median، بالـ maximum، بالـ most frequent |
|
|
|
553 |
|
00:43:34,910 --> 00:43:40,790 |
|
أحياناً حسب حاجتي، وطبعاً كلّه لما بتكلم على الـ |
|
|
|
554 |
|
00:43:40,790 --> 00:43:43,370 |
|
minimum، والـ maximum، والـ median، والـ frequent |
|
|
|
555 |
|
00:43:43,370 --> 00:43:46,470 |
|
كلها عبارة عن method، function جاهزة، ما عليك إلا |
|
|
|
556 |
|
00:43:46,470 --> 00:43:51,650 |
|
أن تستبدل، وتشوف الـ function المناسبة لك. الـ noisy |
|
|
|
557 |
|
00:43:51,650 --> 00:43:57,470 |
|
data بالنسبة |
|
|
|
558 |
|
00:43:57,470 --> 00:44:02,790 |
|
للـ noisy data. إحنا متفقين أن الـ noisy data يعني الـ |
|
|
|
559 |
|
00:44:02,790 --> 00:44:06,190 |
|
data موجودة، مش مفقودة، لكن الـ data خاطئة، الـ data |
|
|
|
560 |
|
00:44:06,190 --> 00:44:12,430 |
|
خاطئة. والأسباب تقريباً نفس الأسباب السابقة، ممكن الـ |
|
|
|
561 |
|
00:44:12,430 --> 00:44:15,530 |
|
system، أو أثناء الـ data collection، أصبح في عندي |
|
|
|
562 |
|
00:44:15,530 --> 00:44:19,210 |
|
error معين، في الآلة، في الـ thermometer، أو في الـ |
|
|
|
563 |
|
00:44:19,210 --> 00:44:22,670 |
|
data entry، أصبح في عندي مشكلة، يعني في لحظة من |
|
|
|
564 |
|
00:44:22,670 --> 00:44:25,290 |
|
اللحظات، كان في عندي الميزان، طلعت على الميزان اللي |
|
|
|
565 |
|
00:44:25,290 --> 00:44:28,520 |
|
هو بالعادة بيقول 200 كيلو. طبعاً، نطيت، جربت، شرحت |
|
|
|
566 |
|
00:44:28,520 --> 00:44:31,540 |
|
الجاكيت، وطلعت ثانيةً على الميزان، قال لي 91 مثلاً. |
|
|
|
567 |
|
00:44:31,540 --> 00:44:34,600 |
|
آه، هي inconsistent. طب، القراءات اللي كانت في الأول إيش |
|
|
|
568 |
|
00:44:34,600 --> 00:44:39,200 |
|
سببها؟ الجاكيت، ومش عارف قد ايش كيلو الجاكيت |
|
|
|
569 |
|
00:44:39,200 --> 00:44:43,680 |
|
نشارك الله ما شاء الله عليك، أو ممكن كان فيها 100 |
|
|
|
570 |
|
00:44:43,680 --> 00:44:47,860 |
|
ألف دولار الجاكيت، تمام؟ |
|
|
|
571 |
|
00:44:47,860 --> 00:44:50,940 |
|
ممكن يكون صار في عندي، أثناء الـ data transmission، نقل |
|
|
|
572 |
|
00:44:50,940 --> 00:44:56,160 |
|
البيانات عبر الشبكة، صار في عندي تغيير بسيط، ممكن |
|
|
|
573 |
|
00:44:56,160 --> 00:44:59,060 |
|
يؤثر. برضه الـ technology limitation، أحياناً بتكون |
|
|
|
574 |
|
00:44:59,060 --> 00:45:05,320 |
|
الـ value اللي بده تنقرأ هذه، أكبر من... يعني تخيّل |
|
|
|
575 |
|
00:45:05,320 --> 00:45:08,360 |
|
أنه أنا فعلياً قيمة، عاملها variable integer بـ |
|
|
|
576 |
|
00:45:08,360 --> 00:45:12,860 |
|
Java، والقيمة اللي اجت أكبر، تمام؟ فوق الأربع |
|
|
|
577 |
|
00:45:12,860 --> 00:45:16,160 |
|
مليار، أو long integer، فشو بيصير فيها؟ بيجيب |
|
|
|
578 |
|
00:45:16,160 --> 00:45:18,100 |
|
لأخر قيمة من السالب... من السالب. طب المفروض |
|
|
|
579 |
|
00:45:18,100 --> 00:45:22,340 |
|
ما تكونش القيمة سالبة. inconsistent naming |
|
|
|
580 |
|
00:45:22,340 --> 00:45:27,460 |
|
convention. المعاني أو في التسميات، صار في عندي عدم |
|
|
|
581 |
|
00:45:27,460 --> 00:45:32,240 |
|
أو في تضارب، خلّنا نقول، في التفسير اللي موجود عندها |
|
|
|
582 |
|
00:45:32,240 --> 00:45:36,000 |
|
طبعاً، الـ duplicate record يا شباب، أحياناً برضه بدها |
|
|
|
583 |
|
00:45:36,000 --> 00:45:38,640 |
|
معالجة، كنوع من الأخطاء اللي موجودة عندها. كيف بدنا |
|
|
|
584 |
|
00:45:38,640 --> 00:45:42,580 |
|
نعالج الـ noisy data؟ معالجة الـ noisy data، إما بطريقة |
|
|
|
585 |
|
00:45:42,580 --> 00:45:48,480 |
|
بيسموها الـ binning، أو الـ regression، clustering، أو |
|
|
|
586 |
|
00:45:48,480 --> 00:45:51,080 |
|
فعلياً، بتعمل... وهدول طبعاً كلها أدوات أو ممكن |
|
|
|
587 |
|
00:45:51,080 --> 00:45:55,200 |
|
algorithms، وممكن أن أدخل الـ computer أو الآلة مع |
|
|
|
588 |
|
00:45:55,200 --> 00:46:01,040 |
|
الإنسان. بالنسبة للـ binning، بالنسبة |
|
|
|
589 |
|
00:46:01,040 --> 00:46:04,240 |
|
للـ binning. الـ binning مفهومها أنه سأذهب لـ |
|
|
|
590 |
|
00:46:04,240 --> 00:46:06,660 |
|
الـ attribute هذا، آخذ الـ values تبع الـ attribute اللي |
|
|
|
591 |
|
00:46:06,660 --> 00:46:13,600 |
|
عندي هنا، أرتبها، رقم واحد، أرتبها، وبعدين أروح |
|
|
|
592 |
|
00:46:13,600 --> 00:46:19,490 |
|
أُجسمها لفئات. تعالَ نشوف، عفواً، في موضوع البناء، فالآن |
|
|
|
593 |
|
00:46:19,490 --> 00:46:26,350 |
|
هذه الـ data اللي قدامي، هي عبارة عن sorted data، بدي |
|
|
|
594 |
|
00:46:26,350 --> 00:46:32,870 |
|
أكتبها بشكل مختلف. هي مثلاً: خمسة عشر، أربعة، تسعة، واحد |
|
|
|
595 |
|
00:46:32,870 --> 00:46:42,050 |
|
وعشرين، أربعة وعشرين، ثمانية وعشرين، ثمانية، خمسة عشر |
|
|
|
596 |
|
00:46:42,050 --> 00:46:50,120 |
|
موجودة. إحنا قلنا خمسة وعشرين، وكمان مرة: 21، 26، و34. |
|
|
|
597 |
|
00:46:50,120 --> 00:46:54,100 |
|
هذه الـ values الموجودة عندي، هي الـ data، هيك جاية |
|
|
|
598 |
|
00:46:54,100 --> 00:46:57,540 |
|
الـ sequence، بالـ sequence هذا، في الـ attribute. أول |
|
|
|
599 |
|
00:46:57,540 --> 00:47:02,680 |
|
خطوة في موضوع الـ binning، بتعمل sort، رتبتهم تصاعدياً |
|
|
|
600 |
|
00:47:02,680 --> 00:47:06,640 |
|
فرتبنا الـ data. الآن، بالنسبة للـ binning يا شباب |
|
|
|
601 |
|
00:47:06,640 --> 00:47:13,030 |
|
بإمكانك تشتغل على الـ equal frequency، يعني تكون كل |
|
|
|
602 |
|
00:47:13,030 --> 00:47:17,670 |
|
مجموعة نفس العدد، أو تشتغل على الـ equal depth زي ما |
|
|
|
603 |
|
00:47:17,670 --> 00:47:23,370 |
|
صار في الـ histogram، تمام؟ بتصير تحدد range، وتُعِب كل |
|
|
|
604 |
|
00:47:23,370 --> 00:47:26,570 |
|
الـ values اللي بتجي وين؟ في الـ range هذا. بينما |
|
|
|
605 |
|
00:47:26,570 --> 00:47:31,310 |
|
بالـ equal frequency، معناته كل range له نفس العدد |
|
|
|
606 |
|
00:47:31,310 --> 00:47:35,210 |
|
من الـ elements. كل value... range له نفس العدد من |
|
|
|
607 |
|
00:47:35,210 --> 00:47:40,310 |
|
الـ elements، فبُجسمهم بالتساوي. الآن، هنا في كلام بسيط |
|
|
|
608 |
|
00:47:40,310 --> 00:47:46,150 |
|
لازم تفهمه. أنا بدي أحاول أتخلص من الـ noisy data أو |
|
|
|
609 |
|
00:47:46,150 --> 00:47:50,410 |
|
قيمة خاطئة، تمام؟ أنا فعلياً، القيمة الخاطئة هذا، مش قادر |
|
|
|
610 |
|
00:47:50,410 --> 00:47:54,350 |
|
أمسكها لحدّ اللحظة، أنا مش عارف هي الأربعة ولا |
|
|
|
611 |
|
00:47:54,350 --> 00:47:59, |
|
|
|
667 |
|
00:52:16,920 --> 00:52:20,480 |
|
الأولى كان 9 المتوسط الحسابي للمجموعة الثانية 23 |
|
|
|
668 |
|
00:52:20,480 --> 00:52:25,980 |
|
المتوسط الحسابي للمجموعة الثالثة 29 إيش حصل أنا |
|
|
|
669 |
|
00:52:25,980 --> 00:52:29,720 |
|
بعد ذلك يا شباب الـ data هذه هترجع لأصلها، الـ 15 كان |
|
|
|
670 |
|
00:52:29,720 --> 00:52:34,720 |
|
في المجموعة الأولى، صح؟ صار مكانه 9، الأربعة في |
|
|
|
671 |
|
00:52:34,720 --> 00:52:39,260 |
|
المجموعة الأولى 9، 9، 21 كانت في المجموعة الثانية |
|
|
|
672 |
|
00:52:39,260 --> 00:52:46,050 |
|
صارت 23، 28 كانت في المجموعة الثالثة صارت 29 |
|
|
|
673 |
|
00:52:46,050 --> 00:52:50,290 |
|
ثمانية في المجموعة الأولى، تسعة، خمسة وعشرون في |
|
|
|
674 |
|
00:52:50,290 --> 00:52:54,550 |
|
المجموعة الثانية، ثلاثة وعشرون، الواحد والعشرون |
|
|
|
675 |
|
00:52:54,550 --> 00:52:58,070 |
|
ثلاثة وعشرون، ستة وعشرون في المجموعة الثانية صارت |
|
|
|
676 |
|
00:52:58,070 --> 00:53:01,870 |
|
تسعة وعشرون، وهذه صارت تسعة وعشرون، هذه لأن أنا |
|
|
|
677 |
|
00:53:01,870 --> 00:53:05,590 |
|
اشتغلت على أربعة bins، واستخدمت الـ mean، الحل الآخر |
|
|
|
678 |
|
00:53:05,590 --> 00:53:10,130 |
|
أن ممكن أنا اشتغل على الـ boundaries، شو هي الـ |
|
|
|
679 |
|
00:53:10,130 --> 00:53:15,290 |
|
boundaries؟ أنا هاجي أقول هي، بعد الـ sort، القيم الـ |
|
|
|
680 |
|
00:53:15,290 --> 00:53:18,390 |
|
boundary هاي، أو القيم الحدودية هذه، بدي أحافظ عليها |
|
|
|
681 |
|
00:53:18,390 --> 00:53:25,930 |
|
وبدي أغير كل اللي في الداخل حسب هي أقرب لمين، تسعة |
|
|
|
682 |
|
00:53:25,930 --> 00:53:28,230 |
|
أقرب لتسعة .. للأربعة ولا الخمسة؟ .. ثمانية، أربعة |
|
|
|
683 |
|
00:53:28,230 --> 00:53:32,070 |
|
ولا خمسة عشر؟ أربعة، أربعة، معناته دي أربعة، تسعة |
|
|
|
684 |
|
00:53:32,070 --> 00:53:36,670 |
|
أربعة ولا خمسة عشر؟ أربعة، الفرق هنا خمسة، والفرق |
|
|
|
685 |
|
00:53:36,670 --> 00:53:40,570 |
|
هنا ستة، معناته هنا أربعة، ونفس الكلام، واحد وعشرون |
|
|
|
686 |
|
00:53:40,570 --> 00:53:45,070 |
|
هذي هتظل واحد وعشرون، وهذي هتصير خمسة وعشرون، هذي |
|
|
|
687 |
|
00:53:45,070 --> 00:53:49,450 |
|
ثمانية، ستة وعشرون، وهذي ستة وعشرون، وأربعة و |
|
|
|
688 |
|
00:53:49,450 --> 00:53:52,950 |
|
ثلاثين، وهيك صار في عندي الآن أكثر من طريقة عشان |
|
|
|
689 |
|
00:53:52,950 --> 00:53:58,650 |
|
أتعامل مع الـ bins، وبهيك يصير في عندي data set |
|
|
|
690 |
|
00:53:58,650 --> 00:54:04,010 |
|
smooth، لكن كمان مرة برجع بقول لك، كل مكان عدد الـ bins |
|
|
|
691 |
|
00:54:04,010 --> 00:54:09,970 |
|
أكبر بـ frequent أو بـ items، أكبر بيكون أفضل بالنسبة |
|
|
|
692 |
|
00:54:09,970 --> 00:54:14,410 |
|
لك، لأنه بتحاول تحط الـ data في الـ real case تبعتها |
|
|
|
693 |
|
00:54:14,410 --> 00:54:17,750 |
|
وبهيك احنا بننهي محاضرتنا إن شاء الله، وبنحاول |
|
|
|
694 |
|
00:54:17,750 --> 00:54:20,410 |
|
نكمل المحاضرة الجاية في موضوع الـ regression والـ |
|
|
|
695 |
|
00:54:20,410 --> 00:54:20,950 |
|
clustering |
|
|