التعلم الآلي غير الخاضع للرقابة: Algorithms، الأنواع مع المثال
ما هو التعلم غير الخاضع للإشراف؟
تعليم غير مشرف عليه هي تقنية للتعلم الآلي حيث لا يحتاج المستخدمون إلى الإشراف على النموذج. وبدلاً من ذلك، فهو يسمح للنموذج بالعمل بمفرده لاكتشاف الأنماط والمعلومات التي لم يتم اكتشافها من قبل. وهو يتعامل بشكل رئيسي مع البيانات غير المسماة.
تعليم غير مشرف عليه Algorithms
تعليم غير مشرف عليه Algorithms تسمح للمستخدمين بأداء مهام معالجة أكثر تعقيدًا مقارنة بالتعلم الخاضع للإشراف. على الرغم من أن التعلم غير الخاضع للإشراف قد يكون أقل قابلية للتنبؤ مقارنة بأساليب التعلم الطبيعية الأخرى. تتضمن خوارزميات التعلم غير الخاضع للإشراف التجميع واكتشاف الشذوذ والشبكات العصبية وما إلى ذلك.
مثال على التعلم الآلي غير الخاضع للرقابة
لنأخذ مثالاً على التعلم غير الخاضع للرقابة لطفل وكلب عائلته.
تعرفت على هذا الكلب وتعرفت عليه. وبعد بضعة أسابيع، أحضر أحد أصدقاء العائلة كلبًا وحاول اللعب مع الطفلة.
لم ير الطفل هذا الكلب من قبل. لكنها تتعرف على العديد من الميزات (أذنان، عيون، المشي على 2 أرجل) مثل كلبها الأليف. لقد حددت الحيوان الجديد على أنه كلب. هذا هو التعلم غير الخاضع للإشراف، حيث لا يتم تعليمك ولكنك تتعلم من البيانات (في هذه الحالة بيانات عن كلب). التعلم تحت إشراف، كان صديق العائلة سيخبر الطفل أنه كلب كما هو موضح في مثال التعلم غير الخاضع للرقابة أعلاه.
لماذا التعلم غير الخاضع للرقابة؟
فيما يلي الأسباب الرئيسية لاستخدام التعلم غير الخاضع للرقابة في تعلم آلة:
- يجد التعلم الآلي غير الخاضع للرقابة جميع أنواع الأنماط غير المعروفة في البيانات.
- تساعدك الأساليب غير الخاضعة للرقابة في العثور على الميزات التي يمكن أن تكون مفيدة للتصنيف.
- ويتم ذلك في الوقت الفعلي، بحيث يتم تحليل كافة البيانات المدخلة وتصنيفها بحضور المتعلمين.
- من الأسهل الحصول على بيانات غير مصنفة من جهاز كمبيوتر مقارنة بالبيانات المصنفة، والتي تحتاج إلى تدخل يدوي.
Clusterأنواع التعلم غير الخاضع للرقابة Algorithms
فيما يلي أنواع التجميع لخوارزميات التعلم الآلي غير الخاضع للإشراف:
مشاكل التعلم غير الخاضعة للإشراف يتم تقسيمها إلى مشاكل التجميع والترابط.
Clusterجي
Clusterيعد ing مفهومًا مهمًا عندما يتعلق الأمر بالتعلم غير الخاضع للإشراف. يتعامل بشكل أساسي مع إيجاد هيكل أو نمط في مجموعة من البيانات غير المصنفة. تعليم غير مشرف عليه Clusterستقوم خوارزميات ing بمعالجة بياناتك والعثور على مجموعات (مجموعات) طبيعية إذا كانت موجودة في البيانات. يمكنك أيضًا تعديل عدد المجموعات التي يجب أن تحددها خوارزمياتك. يسمح لك بتعديل تفاصيل هذه المجموعات.
هناك أنواع مختلفة من التجميع التي يمكنك الاستفادة منها:
حصريا (التقسيم)
في طريقة التجميع هذه، يتم تجميع البيانات بطريقة تسمح لبيانات واحدة بالانتماء إلى مجموعة واحدة فقط.
مثال: يعني K
التكتل
في تقنية التجميع هذه، تكون كل البيانات عبارة عن مجموعة. وتعمل الاتحادات التكرارية بين أقرب مجموعتين على تقليل عدد المجموعات.
مثال: التجميع الهرمي
تداخل
في هذه التقنية، يتم استخدام المجموعات الضبابية لتجميع البيانات. قد تنتمي كل نقطة إلى مجموعتين أو أكثر بدرجات عضوية منفصلة.
هنا، سيتم ربط البيانات بقيمة العضوية المناسبة. مثال: وسائل C غامضة
احتمالي
تستخدم هذه التقنية توزيع الاحتمالات لإنشاء المجموعات
مثال: الكلمات الرئيسية التالية
- "حذاء الرجل."
- "حذاء نسائي."
- "قفازات نسائية."
- "قفاز الرجل."
يمكن تقسيمها إلى فئتين "حذاء" و"قفاز" أو "رجل" و"امرأة".
Clusterأنواع جي
فيما يلي أنواع التجميع للتعلم الآلي:
- المجموعات الهرمية
- K- يعني التجميع
- K-NN (k أقرب الجيران)
- تحليل المكون الرئيسي
- تحليل القيمة المفردة
- تحليل المكونات المستقلة
الهرمية Clusterجي
التجميع الهرمي هو خوارزمية تقوم ببناء تسلسل هرمي من المجموعات. وتبدأ بكل البيانات المخصصة لمجموعة خاصة بها. هنا، ستكون مجموعتان متقاربتان في نفس المجموعة. وتنتهي هذه الخوارزمية عندما يتبقى مجموعة واحدة فقط.
يعني K Clusterجي
K تعني أنها خوارزمية تجميع تكرارية تساعدك على إيجاد أعلى قيمة لكل تكرار. في البداية، يتم تحديد العدد المطلوب من المجموعات. في طريقة التجميع هذه، تحتاج إلى تجميع نقاط البيانات في مجموعات k. تعني قيمة k الأكبر مجموعات أصغر ذات حبيبات أكثر بنفس الطريقة. تعني قيمة k الأقل مجموعات أكبر ذات حبيبات أقل.
إن مخرجات الخوارزمية عبارة عن مجموعة من "التسميات". وهي تعين نقطة بيانات لإحدى المجموعات k. وفي التجميع باستخدام طريقة k-means، يتم تعريف كل مجموعة عن طريق إنشاء مركز لكل مجموعة. وتشبه مراكز البيانات قلب المجموعة، الذي يلتقط النقاط الأقرب إليها ويضيفها إلى المجموعة.
يحدد التجميع المتوسط K أيضًا مجموعتين فرعيتين:
- التكتل العنقودي
- دندروغرام
التكتل العنقودي
يبدأ هذا النوع من التجميع باستخدام طريقة K-means بعدد ثابت من المجموعات. ويخصص كل البيانات إلى العدد الدقيق من المجموعات. ولا تتطلب طريقة التجميع هذه عدد المجموعات K كمدخل. وتبدأ عملية التجميع بتكوين كل البيانات كمجموعة واحدة.
تستخدم هذه الطريقة بعض مقاييس المسافة، وتقلل عدد المجموعات (مجموعة واحدة في كل تكرار) من خلال عملية الدمج. وأخيرًا، لدينا مجموعة كبيرة تحتوي على جميع الكائنات.
دندروغرام
في طريقة التجميع الشجري، سيمثل كل مستوى مجموعة محتملة. يوضح ارتفاع الشجرة مستوى التشابه بين مجموعتين متصلتين. كلما اقتربت من أسفل العملية، كلما كانت المجموعة أكثر تشابهًا، وهو ما يُعَد اكتشافًا للمجموعة من الشجرة، وهو أمر غير طبيعي وذاتي في الغالب.
ك- أقرب الجيران
K- أقرب جار هو أبسط مصنفات التعلم الآلي على الإطلاق. وهو يختلف عن تقنيات التعلم الآلي الأخرى، حيث إنه لا ينتج نموذجًا. إنه خوارزمية بسيطة تخزن جميع الحالات المتاحة وتصنف الحالات الجديدة بناءً على مقياس التشابه.
إنه يعمل بشكل جيد جدًا عندما تكون هناك مسافة بين الأمثلة. تكون سرعة التعلم بطيئة عندما تكون مجموعة التدريب كبيرة، ويكون حساب المسافة أمرًا بسيطًا.
تحليل المكونات الرئيسية
في حالة رغبتك في الحصول على مساحة ذات أبعاد أعلى، يتعين عليك تحديد أساس لتلك المساحة وتحديد أهم 200 نتيجة فقط لتلك المساحة. تُعرف هذه القاعدة باسم المكون الرئيسي. وتشكل المجموعة الفرعية التي تحددها مساحة جديدة صغيرة الحجم مقارنة بالمساحة الأصلية. وتحافظ على أكبر قدر ممكن من تعقيد البيانات.
جمعية
تسمح لك قواعد الاقتران بإنشاء ارتباطات بين كائنات البيانات داخل قواعد البيانات الكبيرة. تدور هذه التقنية غير الخاضعة للرقابة حول اكتشاف العلاقات المثيرة للاهتمام بين المتغيرات في قواعد البيانات الكبيرة. على سبيل المثال، من المرجح أن يشتري الأشخاص الذين يشترون منزلًا جديدًا أثاثًا جديدًا.
أمثلة أخرى:
- مجموعة فرعية من مرضى السرطان مجمعة حسب قياسات التعبير الجيني الخاصة بهم
- مجموعات من المتسوقين بناءً على تاريخ التصفح والشراء الخاص بهم
- مجموعة الأفلام حسب التصنيف المقدم من مشاهدي الأفلام
التعلم الآلي الخاضع للإشراف مقابل التعلم الآلي غير الخاضع للإشراف
هنا هو الفرق الرئيسي بين التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف:
المعلمات | تقنية التعلم الآلي الخاضعة للإشراف | تقنية التعلم الآلي غير الخاضعة للرقابة |
---|---|---|
ادخال البيانات | Algorithms يتم تدريبهم باستخدام البيانات المصنفة. | Algorithms يتم استخدامها ضد البيانات التي لم يتم تصنيفها |
التعقيد الحسابي | التعلم الخاضع للإشراف هو طريقة أبسط. | التعلم غير الخاضع للإشراف معقد حسابيًا |
دقة | طريقة دقيقة للغاية وجديرة بالثقة. | Less طريقة دقيقة وجديرة بالثقة. |
تطبيقات التعلم الآلي غير الخاضع للرقابة
بعض تطبيقات تقنيات التعلم غير الخاضعة للرقابة هي:
- Clusterيقوم تلقائيًا بتقسيم مجموعة البيانات إلى مجموعات بناءً على أوجه التشابه بينها
- يمكن أن يكتشف اكتشاف الحالات الشاذة نقاط بيانات غير عادية في مجموعة البيانات الخاصة بك. ومن المفيد العثور على المعاملات الاحتيالية
- يحدد التعدين المقترن مجموعات من العناصر التي غالبًا ما تحدث معًا في مجموعة البيانات الخاصة بك
- تُستخدم النماذج المتغيرة الكامنة على نطاق واسع في المعالجة المسبقة للبيانات. مثل تقليل عدد الميزات في مجموعة البيانات أو تحليل مجموعة البيانات إلى مكونات متعددة
عيوب التعلم غير الخاضع للرقابة
- لا يمكنك الحصول على معلومات دقيقة فيما يتعلق بفرز البيانات، ويتم تصنيف المخرجات كبيانات مستخدمة في التعلم غير الخاضع للرقابة وغير معروفة
- Less ترجع دقة النتائج إلى أن البيانات المدخلة غير معروفة ولم يتم تصنيفها من قبل الأشخاص مسبقًا. وهذا يعني أن الآلة تحتاج إلى القيام بذلك بنفسها.
- لا تتوافق الفئات الطيفية دائمًا مع الفئات المعلوماتية.
- يحتاج المستخدم إلى قضاء بعض الوقت في تفسير وتسمية الفئات التي تتبع هذا التصنيف.
- يمكن أيضًا أن تتغير الخصائص الطيفية للفئات بمرور الوقت، لذا لا يمكنك الحصول على نفس معلومات الفئة أثناء الانتقال من صورة إلى أخرى.
الملخص
- التعلم غير الخاضع للرقابة هو أسلوب للتعلم الآلي، حيث لا تحتاج إلى الإشراف على النموذج.
- يساعدك التعلم الآلي غير الخاضع للرقابة على العثور على جميع أنواع الأنماط غير المعروفة في البيانات.
- Clustering و Association نوعان من التعلم غير الخاضع للرقابة.
- هناك أربعة أنواع من طرق التجميع وهي: 1) الحصرية 2) التراكمية 3) المتداخلة 4) الاحتمالية.
- أنواع التجميع المهمة هي: 1) التجميع الهرمي 2) التجميع باستخدام متوسط K 3) KNN 4) تحليل المكونات الأساسية 5) تحلل القيمة المفردة 6) تحليل المكونات المستقلة.
- تسمح لك قواعد الاقتران بإنشاء ارتباطات بين كائنات البيانات داخل قواعد البيانات الكبيرة.
- في التعلم الخاضع للإشراف Algorithms يتم تدريبهم باستخدام البيانات المصنفة أثناء التعلم غير الخاضع للإشراف Algorithms يتم استخدامها ضد البيانات التي لم يتم تصنيفها.
- يمكن أن يكتشف اكتشاف الحالات الشاذة نقاط بيانات مهمة في مجموعة البيانات الخاصة بك والتي تكون مفيدة للعثور على المعاملات الاحتيالية.
- أكبر عيب في التعلم غير الخاضع للرقابة هو أنه لا يمكنك الحصول على معلومات دقيقة فيما يتعلق بفرز البيانات.