Kinectを用いたロボットナビゲーション
-
12-12-2019 - |
質問
今までキネクセルセンサーがある場所にあるアプリケーションを作成することができました。私は私がイメージを処理し、オブジェクトを学び、認識するのを助けるために、音声認識EMGUCV(CV)とAForge.netを使用しました。それはすべてうまくいっていますが、常に改善の範囲があります、そして私はいくつかの問題をポーズしています:[最初の3つを最初の3つを無視しています
-
フレームレートは恐ろしいです。それは30のFPSのようなものであるべきですが、5 fpsのようです。 (これはすべての処理なしではありません)マイアプリケーションは正常に動作していますが、カメラからの深さフレームとそれを表示します。それでもフレームレートは悪いです。サンプルは約25fpsの範囲で、素晴らしいです。私はサンプルからまったく同じコードを走りましたが、それはばかなばくさんのバージョンを妨げませんでした。 :-(コードの必要はありません、考えられる問題を教えてください。]
-
私はKinectと私のラップトップがマウントされる少しロボットを作成したいと思います。私はマインドストームキットを使ってみましたが、ロートルクモーターはトリックをしないでください。私はこれをどのように達成するのでしょうか。
-
どのように電源を供給しますか? Kinectがモーターに12ボルトを使用することを知っています。しかし、それはACアダプタからそれを取得します。 [ケーブルを切って12ボルトのバッテリーで交換したいのですが
-
最大の質問:この世界でどのようにナビゲートしますか。 *と洪水フィルアルゴリズムをやった。私はこの屋根の千回の紙と私は何もしませんでした。私は私の心の中でナビゲーションアルゴリズムを持っていますが、地球上でそれ自体をローカライズするのでしょうか。 [GPSや他の種類のセンサーを使用しないでください。その目のみ、すなわちKinect]
私が素晴らしいのを手伝ってくれるでしょう。私は初心者ですので、私がすべてを知ることを期待しないでください。私は運がいないと2週間インターネット上に起きています。
たくさんありがとう!
解決
ローカライズは、ロボットが配置される環境に関する事前の知識を持つことに依存するため、トリッキーなタスクです( i.e. あなたの家の地図)。アルゴリズムが同時にローカライゼーションとマッピングのために存在する間、それらはドメイン固有のものであり、そのように任意の場所にロボットを配置し、その環境を自律的にマッピングする一般的な場合に適用されないようになる。
しかし、あなたのロボットがその環境のように見えるものについて、が荒い(確率的な)アイデアを持っている場合、モンテカルロローカライズは良い選択です。高水準で、それは次のようになります:
- 最初に、ロボットは、おそらく既知の環境内にある可能性がある場所について多数のランダム推測(粒子と呼ばれる)を作るべきです。
- センサからの各更新(すなわち、ロボットが短距離移動した後)では、その電流センサデータの統計モデルを使用して、そのランダム推測のそれぞれが正しい可能性を調整する。ロボットが360°のセンサ測定をする場合、これは特にうまく機能することができますが、これは完全に必要ではありません。