معيار التقارب لـ (Batch) SOM (خريطة التنظيم الذاتي ، الملقب "خريطة Kohonen")؟

StackOverflow https://stackoverflow.com/questions/2557289

سؤال

أحب إيقاف التنفيذ عندما تتقارب الدفعة. ما هي وظيفة الخطأ التي يمكنني استخدامها لتحديد التقارب؟

هل كانت مفيدة؟

المحلول

عند الحديث عن التقارب لـ SOMS ، لحجم خريطة معين (NXM) ، فأنت تريد أن تعرف ما إذا كانت التكرارات الكافية للخوارزمية قد تم تشغيلها لضمان أن تكون الخريطة "مستقرة". هذا يعني ، بشكل فضفاض ، أن يتم وضع مدخلات جديدة (الملاحظات) على الخريطة في نفس المتجهات الخلايا العصبية /الكتب المدونة إذا تم إعادة تدريب الخريطة عدة مرات؟ (تجاهل مسألة حقيقة أن ترتيب الخريطة قد يتحول عندها يتم تدريبه في كل مرة ، وهو أمر جيد طالما لا تزال المجموعات مرتبة بطريقة مستقرة).

للمساعدة في الإجابة على مسألة ما إذا كان هناك ما يكفي من التكرارات قد تم تشغيله ، راجع الأوراق الأكاديمية المدرجة أدناه. تلمس كلتا الورقتين أيضًا مسألة حجم الخريطة المناسب (ما هي قيم NXM التي تساعد في ضمان تقارب SOM؟).

يتم تقديم أحد الأساليب التقليدية التي كانت شائعة في الأوراق هنا:

الأدوات الإحصائية لتقييم موثوقية خرائط التنظيم الذاتي (BODT ، Cottrell ، Verleysen)

في الآونة الأخيرة ، ظهرت هذه الطريقة ، والتي تبدو واعدة إلى حد ما:

معيار التقارب للخرائط التنظيم الذاتي ، أطروحة الماجستير ، بنيامين ح. أوت (جامعة رود آيلاند)

هذه الأطروحة ، في رأيي ، كانت مكتوبة بشكل جيد ومتعة أن تقرأ. ما هو لطيف أيضًا هو أن هذا البحث قد تم كتابته كاختبار تقارب SOM في حزمة (غير معروفة إلى حد ما) في R ، ودعا popsom. تحقق من ذلك:

popsom

نصائح أخرى

أنا متأكد من أنك تعني وظيفة التكلفة بدلاً من وظيفة الخطأ.

SOM لا يتطلب وظيفة خطأ (ولا وظيفة التكلفة).

في المستوى الأعلى من تصنيف التعلم الآلي ، SOM هو تقنية التعلم غير الخاضعة للإشراف-لا يوجد متجه مستهدف ، وبالتالي لا يوجد "مستهدف مستهدف" minus "value_at_the_current_iteration" لتقليل.

طريقة أخرى للتفكير في الأمر: دور وظيفة التكلفة هو تقليل بعض التكلفة ؛ في ML ، إنها دلتا بين حساب النموذج والبيانات المقدمة. في SOM ، لا يتم توفير أي بيانات إلى الخوارزمية لهذا الغرض.

(أدرك أن هذا أمر محير إلى حد ما لأن بيانات الإدخال التي يتم إنشاء الشبكة منها غالبًا ما يشار إليها باسم "بيانات التدريب"-ربما هذا هو دور بيانات الإدخال في تقنيات ML الخاضعة للإشراف ، والتي هي أكثر شيوعًا بكثير من تلك غير الخاضعة للإشراف. من المحتمل أيضًا أن يكون الأمر مربكًا أيضًا لأن Teuvo Kohonen ، الشخص الذي يُنسب إليه "اختراع" SOM ، يشار إليه في الأصل باسم فئة من الشبكات العصبية-وبالطبع NN هو تقنية خاضعة للإشراف ويعتمد على وظيفة التكلفة (في كثير من الأحيان نزول التدرج.) )

أخيرًا ، للتأكد فقط ، قمت بفحص رمز SOM الخاص بي وكذلك الرمز من كتاب ML المدرسي بواسطة Marsland ، "التعلم الآلي: منظور خوارزمي". في كل من الكود الخاص بي ، ، فإن معيار الإيقاف الوحيد الذي تم إقراره للمستخدم عندما أطلق على الوظيفة الرئيسية.

مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top