حسنًا لتقدير المنظور في صورة المستند ، لا يمكن فهم الخوارزمية

StackOverflow https://stackoverflow.com/questions/2679939

سؤال

فيما يلي ورقة ، يتعلق الأمر بتقدير منظور الصورة الثنائية التي تحتوي على نص وبعض الضوضاء أو الكائنات غير النصية.

وثيقة PDF

تستخدم الخوارزمية نموذج Markov المخفي: في الواقع شرطان T - Text B - Backgrouond (أي ضوضاء)

من الصعب فهم الخوارزمية نفسها. والسؤال هو أنني قرأت عن نماذج ماركوف المخفية وأعلم أنها تستخدم الاحتمالات التي يجب أن تكون معروفة. لكن في هذه الخوارزمية ، لا أستطيع أن أفهم ، إذا استخدموا HMM ، كيف يحصلون على هذه الاحتمالات (احتمال تغيير الحالة من S1 إلى حالة أخرى على سبيل المثال S2)؟

لم أجد أي شيء عن التدريب هناك أيضًا في تلك الورقة. لذا ، إذا فهمها شخص ما ، فالرجاء إخباري. هل من الممكن أيضًا استخدام HMM دون معرفة احتمالات تغيير الحالة؟

تحرير: قد يستخدمون بعض التقديرات ، دون معرفة معلمات HMM (الاحتمالات)

هل كانت مفيدة؟

المحلول

ربما يكون هذا أكاديميًا جدًا ، وأكثر ارتباطًا بالرياضيات التطبيقية من البرمجة؟

على أي حال: هم تقليديا تدرب (أي تعلم قيمة معلمات النموذج ، في هذه الحالة الاحتمالات) باستخدام بعض قاعدة البيانات بالفعل صنف بيانات. انظر باوم ولش خوارزمية. هذا التقسيم من مرحلتين: التعلم (أو التدريب) أولاً (مع البيانات المسمى المصنف) ، تصنيف (أو عمل حقيقي) بعد (مع بيانات غير مصنفة) هو نموذجي للعديد من الخوارزميات ، ويسمى ذلك تصنيف تحت الإشراف.

من ناحية أخرى ، في بعض الأحيان لا نملك بيانات "معروفة" (مصنفة) ، لذلك يجب أن نلجأ إليها تصنيف غير خاضع للإشراف, ، حيث نحاول تعلم النموذج وتصنيفه في نفس الوقت. هذا محدود أكثر بكثير ، وعادة ما يعني جعل العديد من التوافقيات وتقليل المعلمات للنموذج (بحيث لا يكون لدينا الكثير من الأشياء لنتعلمها). للوهلة الأولى ، يبدو أن هذا هو المسار الذي تم اتخاذه في هذه المقالة: لا يعتبرون HMM عامة تمامًا ، ولكنه مقيد للغاية ، ويحاولون العثور على نوبة جيدة للنموذج. لكن ، مرة أخرى ، لم أقرأها بجدية.

مرخصة بموجب: CC-BY-SA مع الإسناد
لا تنتمي إلى StackOverflow
scroll top