تعلم الألة الغير خاضع للرقابة Machine Learning Unsupervised#

تعلم الألة الغير خاضع للرقابة

 Machine Learning Unsupervised#



تعلم الألة الغير خاضع للرقابة Machine Learning Unsupervised#

حتى الآن ما رأيته هو جعل الآلة تتعلم اكتشاف حل هدفنا.  في الانحدار ، نقوم بتدريب الآلة للتنبؤ بقيمة مستقبلية.  في التصنيف ، نقوم بتدريب الآلة لتصنيف كائن غير معروف إلى واحدة من الفئات المحددة من قبلنا.  باختصار ، لقد تم تدريب الآلات بحيث يمكنها التنبؤ ببياناتنا X. نظرًا لمجموعة البيانات الضخمة وعدم تقدير الفئات ، سيكون من الصعب علينا تدريب الآلة باستخدام التعلم الخاضع للإشراف.  ماذا لو كان بإمكان الجهاز البحث عن البيانات الضخمة وتحليلها وتشغيلها في عدة غيغابايت وتيرابايت وإخبارنا أن هذه البيانات تحتوي على العديد من الفئات المتميزة؟
كمثال ، خذ بعين الاعتبار بيانات الناخب.  عند النظر في بعض المدخلات من كل ناخب (تسمى هذه الميزات في مصطلحات AI) ، دع الآلة تتنبأ بوجود عدد كبير من الناخبين الذين سيصوتون لصالح حزب X السياسي وأن الكثير منهم سيصوتون لصالح Y ، وهكذا.  وبالتالي ، بشكل عام ، نطلب من الجهاز إعطاء مجموعة كبيرة من نقاط البيانات X ، "ماذا يمكنك أن تخبرني عن X؟".  أو قد يكون السؤال مثل "ما هي أفضل خمس مجموعات يمكننا تكوينها من X؟".  أو يمكن أن يكون "ما هي الميزات الثلاث التي تحدث بشكل متكرر في X؟"

 هذا هو بالضبط ما يدور حوله التعلم غير الخاضع للرقابة.

  خوارزمية التعليم الغير خاضع للرقابة  Algorithms for Unsupervised Learning

الآن دعونا نناقش واحدة من الخوارزميات المستخدمة على نطاق واسع للتصنيف في تعلم الآلة غير الخاضعة للرقابة.

 ك يعني التجميع
 كانت الانتخابات الرئاسية في عامي 2000 و 2004 في الولايات المتحدة متقاربة للغاية.  وكانت أكبر نسبة من الأصوات الشعبية التي حصل عليها أي مرشح 50.7 ٪ وأدنى نسبة 47.9 ٪.  إذا كانت النسبة المئوية للناخبين قد تحولت إلى جانب ، لكانت نتيجة الانتخابات مختلفة.  هناك مجموعات صغيرة من الناخبين الذين ، عندما يتم توجيه نداء مناسب لهم ، سوف يتحولون إلى جانب.  قد لا تكون هذه المجموعات ضخمة ، ولكن مع وجود مثل هذه السباقات القريبة ، قد تكون كبيرة بما يكفي لتغيير نتيجة الانتخابات.  كيف تجد هذه المجموعات من الناس؟  كيف تروق لهم بميزانية محدودة؟  الجواب هو التجميع.

 دعونا نفهم كيف يتم ذلك.

 أولاً ، تقوم بجمع معلومات عن الأشخاص سواء بموافقتهم أو بدونها: أي نوع من المعلومات قد يعطي بعض الدلائل حول ما هو مهم بالنسبة لهم وما الذي سيؤثر على كيفية تصويتهم.

 ثم وضعت هذه المعلومات في نوع من خوارزمية التجميع.

 بعد ذلك ، بالنسبة لكل مجموعة (سيكون من الأفضل اختيار أكبر مجموعة أولاً) ، تصنع رسالة ستجذب هؤلاء الناخبين.

 أخيرًا ، تقوم بتسليم الحملة وتدبير لمعرفة ما إذا كانت ناجحة.

 التجميع هو نوع من التعلم غير الخاضع للإشراف يقوم تلقائيًا بتكوين مجموعات من الأشياء المشابهة.  انها مثل التصنيف التلقائي.  يمكنك تجميع أي شيء تقريبًا ، وكلما كانت العناصر متشابهة في المجموعة ، كانت المجموعات أفضل.  في هذا الفصل ، سنقوم بدراسة نوع واحد من خوارزمية التجميع تسمى k-mean.  يطلق عليه k-mean لأنه يجد مجموعات فريدة من نوعها ، ووسط كل مجموعة هو متوسط ​​القيم في تلك المجموعة.

تعريف الكتلة  Cluster Identification



يحدد تعريف الكتلة خوارزمية ، "إليك بعض البيانات.  الآن قم بتجميع الأشياء المتشابهة معًا وأخبرني عن تلك المجموعات. "والفرق الرئيسي عن التصنيف هو أنك تعرف ما تبحث عنه في التصنيف.  في حين أن هذا ليس هو الحال في التكتل.

 تسمى المجموعة في بعض الأحيان التصنيف غير الخاضع للإشراف لأنها تنتج نفس النتيجة التي يحدثها التصنيف ولكن دون وجود فئات محددة مسبقًا.

 الآن ، نحن مرتاحون للتعلم الخاضع للإشراف وغير الخاضع للإشراف.  لفهم بقية فئات التعلم الآلي ، يجب أولاً فهم الشبكات العصبية الاصطناعية (ANN) ، والتي سنتعلمها في الفصل التالي