Вопрос

До сих пор я смог создать приложение, где датчик Kinect находится в одном месте. Я использовал распознавание речи Emgucv (Open CV) и AFORCE.NET, чтобы помочь мне обработать изображение, учиться и распознавать объекты. Все все работает нормально, но всегда есть возможность улучшения, и я представляю некоторые проблемы: [игнорировать первые три, которые я хочу ответить на четвертый]

  1. Скорость кадров ужасна. Это как 5 кадров в секунду, хотя он должен быть как 30 кадров в секунду. (Это без всей обработки) Мое приложение работает нормально, он получает цвет, а также глубинные рамы из камеры и отображает его. Тем не менее, частота кадров плохой. Образцы бегают потрясающе, около 25 кадров в секунду. Несмотря на то, что я бежал точно такой же код от образцов, он не будет просто сдвинуться. :-( [Нет необходимости в коде, пожалуйста, скажите мне возможные проблемы.]

  2. Я хотел бы создать маленький робот, на котором будет установлен Kinect и мой ноутбук. Я пытался использовать комплект для мышления нами, но двигатели Lowtorque не делают хитрость. Пожалуйста, скажите мне, как я достичь этого.

  3. Как я могу подать питание на борту? Я знаю, что Kinect использует 12 вольт для мотора. Но это получает это из адаптера переменного тока. [Я бы не хотел бы резать свой кабель и заменить его 12-вольтовой батареей]

  4. Самый большой вопрос: как в этом мире это будет ориентироваться. Я сделал алгоритмы * и заполнения наводнения. Я читаю Это Бумага, как тысячу раз, и я ничего не получил. У меня есть алгоритм навигации в моей голове, но как на земле это будет локализовать себя? [Он не должен использовать GPS или любые другие датчики, только его глаза I.e. Kinect]

    Помочь мне будет потрясающе. Я новичок, поэтому, пожалуйста, не ожидайте, что я все узнаю. Я был в Интернете в течение 2 недель без удачи.

    Большое спасибо!

Это было полезно?

Решение

Локализация - это сложная задача, так как это зависит от того, находясь предыдущим знанием окружающей среды, в которой будет размещен ваш робот ( I.E. карта вашего дома). Хотя алгоритмы существуют для одновременной локализации и отображения, они имеют тенденцию быть специфическими к домену и как таковые не применимы к общему случаю размещения робота в произвольном положении и имеющие его на карте своей среды автономно.

Тем не менее, если ваш робот имеет более грубое (вероятностное) идею о том, как выглядит его среда, Локализация Монте-Карло - хороший выбор. На высоком уровне он идет что-то вроде:

  1. Во-первых, робот должен сделать большое количество случайных догадок (называемых частицами ), как к тому, где он может быть в пределах его известной среды.
  2. с каждым обновлением от датчика (то есть после того, как робот переместился на короткое расстояние), он корректирует вероятность того, что каждое из его случайных догадок правильно используют статистическую модель данных датчиков текущего датчика. Это может особенно хорошо работать, если робот занимает измерения датчика 360º, но это не очень необходимо.

    Эта лекция Эндрю Дависоном на Имперком Колледж Лондон дает хороший обзор участия в математике. (Остальная часть курса, скорее всего, будет очень интересным для вас, учитывая то, что вы пытаетесь создать). Удачи!

Лицензировано под: CC-BY-SA с атрибуция
Не связан с StackOverflow
scroll top