Microsoft Kinectで部屋からすべてのオブジェクトを認識することは可能ですか?

StackOverflow https://stackoverflow.com//questions/22022774

  •  21-12-2019
  •  | 
  •  

質問

私は部屋全体を認識しなければならないプロジェクトを持っています。Microsoft Kinectを使用してそのようなものが可能ですか?

ありがとうございました!

役に立ちましたか?

解決

Kinectは次の

を提供します

  1. 深さストリーム
  2. カラーストリーム
  3. スケルトン情報
  4. それはあなたがこのデータをどのように使うかをあなた次第です。

    あなたの質問に答えるために - 公式のMicoroSft Kinect SDKは箱からの形の形状検出を提供します。しかし、それはあなたがKinectからユーザーの距離を検出することができるスケルトンデータ/顔追跡を提供します。 また、カラーストリームを深さストリームにマッピングすることで、特定のピクセルがKinectからどれだけ離れているかを検出できます。色、形状、サイズのような異なるオブジェクトの特性がある場合は、おそらくそれらを検出し、距離を検出することができます。

    OpenCV は、私がコンピュータビジョンなどに使用するライブラリの1つです。

    これもまたこのデータの使用方法

他のヒント

Kinectカメラは、0.5~10メートルの範囲のつや消しオブジェクトに関する深さとその結果として3D情報(ポイントクラウド)を提供します。この情報を用いて、部屋の(平面を嵌合することによって)床とおそらく天井の床を分割することが可能である。このステップは、これらのサーフェスがそれらを1つの大きなオブジェクトにする別のオブジェクトを接続することが多いので重要です。

ポイントクラウドの残りの部分は、物理的に互いに触れない場合、深さによって分割できます。カラーを使用すると、オブジェクトをさらに分離できます。他の定義も可能である間に、3D密度および色の一貫したエンティティとしてオブジェクトを暗黙的に定義します。

あなたのオブジェクトがセグメント化されるとすぐにあなたはあなたのセグメント間の距離を測定し、彼らの形を分析し、アーティファクトや人間を認識することができます。しかし、スケルトンライブラリは、彼らが数回動いた後に人間を認識することができます秒数以下は、深さを使用していくつかのセグメントで壊れていた単純な深さマップです。 depth 「画像の説明を入力してください。

ライセンス: CC-BY-SA帰属
所属していません StackOverflow
scroll top