質問

サーフとふるいアルゴリズムを理解する際にいくつかの概念的な問題があります サーフィンについてのすべて. 。私の理解に関する限り、サーフィンはガウスのラプラシアンとシフトがガウスの違いに基づいて動作します。次に、その周りに64変数ベクトルを構築して、機能を抽出します。私はこれを適用しました コード.

(Q1) では、機能は何ですか?

(Q2) SurffeatureDetector Detector(500)を使用して、アルゴリズムを初期化します。それで、これは、機能スペースのサイズが500であることを意味しますか?

(Q3) surf good_matchesの出力は、keypoint1とkeypoint2の一致を与え、一致数を調整することにより、オブジェクトが見つかった/検出されたかどうかを結論付けることができます。キーポイントとはどういう意味ですか?これらは機能を保存しますか?

(Q4) オブジェクト認識アプリケーションを行う必要があります。コードでは、アルゴリズムが本を認識できるように見えます。したがって、オブジェクト認識に適用できます。私は、サーフを使用して、色と形状に基づいてオブジェクトを区別できるという印象を受けていました。しかし、サーフとシフトはコーナーエッジの検出を見つけるため、グレースケールに変換されるため、カラー画像をトレーニングサンプルとして使用することには意味がありません。これらのアルゴリズムで色やHSVを使用するオプションはありません。各チャネルのキーポイントを個別に計算しない限り、これは別の研究領域です(オブジェクトとシーンの認識のためのカラー記述子の評価).

それでは、色、形状に基づいてオブジェクトを検出して認識するにはどうすればよいですか?サーフを使用して、その形状に基づいてオブジェクトを区別できると思います。たとえば、私は2冊の本とボトルを持っています。オブジェクト全体から1冊の本のみを認識する必要があります。しかし、シーンに他の同様の形のオブジェクトがあるとすぐに、サーフは多くの誤った肯定的なものを与えます。私のアプリケーションにどのような方法を申請するかについての提案に感謝します。

役に立ちましたか?

解決

  1. 局所的な最大値(ピラミッドのポイント、3x3x3近隣の上部と恋人のイメージに関する隣接ピクセルの応答よりも大きい(小さい)犬の応答)は、特徴(円)中心の座標を形成します。円の半径はピラミッドのレベルです。

  2. それはヘシアンのしきい値です。つまり、しきい値よりも大きい値で最大値(1を参照)のみを取ることを意味します。しきい値が大きいと、機能の数が少なくなりますが、機能の安定性が向上し、Visaのバイザが優れています。

  3. keypoint == feature。 opencvで キーポイントは、機能を保存する構造です。

  4. いいえ、サーフィンはテクスチャされたオブジェクトの比較に適していますが、形状と色には適していません。形状については、MSER(OpenCV Oneではなく)、Canny Edge Detector、ローカル機能ではなく使用することをお勧めします。 このプレゼンテーション 便利かもしれません

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top