Frage

Bis jetzt konnte ich eine Anwendung erstellen, an der der Kinect-Sensor an einem Ort ist. Ich habe die Spracherkennung Emgucv (Open CV) und Open.net verwendet, um mir zu helfen, ein Bild zu verarbeiten, Objekte zu lernen und zu erkennen. Es funktioniert gut, aber es gibt immer Verbesserungsmöglichkeiten und ich positioniere einige Probleme: [ignorieren Sie die ersten drei, die ich möchte, dass die Antwort für den vierten Platz ist]

    .
  1. Die Bildrate ist schrecklich. Es ist wie 5 fps, obwohl es wie 30 fps sein sollte. (Dies ist ohne die gesamte Verarbeitung) Meine Anwendung läuft gut, es wird Farbe sowie Tiefenrahmen aus der Kamera und zeigt es an. Trotzdem ist die Bildrate schlecht. Die Proben laufen super, etwa 25 fps. Obwohl ich genau den gleichen Code aus den Mustern lief, wird es nicht nur brochen. :-( [Es gibt keinen Code, bitte erzähl mir die möglichen Probleme.]

  2. Ich möchte einen kleinen Roboter erstellen, auf dem der Kinect und mein Laptop montiert werden. Ich habe versucht, das Mindstorms-Kit zu verwenden, aber die Lowtorque-Motoren tun den Trick nicht. Bitte sag mir, wie ich das erreichen werde.

  3. Wie lief ich Bord an Bord? Ich weiß, dass der Kinect 12 Volt für den Motor verwendet. Aber es bekommt das von einem Netzteil. [Ich möchte mein Kabel nicht schneiden und durch eine 12-Volt-Batterie ersetzen]

  4. Die größte Frage: Wie auf dieser Welt wird es navigieren. Ich habe A * und Flood-Fill-Algorithmen getan. Ich lese dieses Papier wie tausendmal und ich habe nichts bekommen. Ich habe den Navigationsalgorithmus in meinem Kopf, aber wie auf der Erde wird es sich selbst lokalisieren? [Es sollte kein GPS oder jede Art anderer Sensoren verwenden, nur seine Augen, d. H. Der Kinect]

    mir hilft, super zu sein. Ich bin ein Neuling, also erwarte nicht, dass ich alles weiß. Ich bin seit 2 Wochen im Internet mit keinem Glück auf dem Internet.

    vielen dank!

War es hilfreich?

Lösung

localization ist eine knifflige Aufgabe, da sie von der Gewinnung von Vorkenntnissen der Umgebung abhängt, in der Ihr Roboter platziert wird ( I.E. eine Karte Ihres Hauses). Während Algorithmen zur gleichzeitigen Lokalisierung und -zuordnung vorhanden sind, neigen sie dazu, domänenspezifisch zu sein und als solche nicht auf den allgemeinen Fall des Platzierens eines Roboters in einem willkürlichen Ort anwendbar und hat sie autonom aufzunehmen.

Wenn Ihr Roboter jedoch eine raue (probabilistische) Idee hat, wie sich ihre Umgebung aussieht, Monte Carlo-Lokalisierung ist eine gute Wahl. Auf einem hohen Niveau geht es so etwas wie:

    .
  1. Erstens sollte der Roboter eine große Anzahl von zufälligen Vermutungen (namens -Partikel ), wo es in seiner bekannten Umgebung genannt werden könnte.
  2. Mit jedem Update von dem Sensor (d. H. Nachdem der Roboter eine kurze Entfernung bewegt hat), stellt er die Wahrscheinlichkeit ein, dass jede seiner zufälligen Vermutungen mit einem statistischen Modell seiner aktuellen Sensordaten korrekt ist. Dies kann besonders gut funktionieren, wenn der Roboter 360º-Sensormessungen dauert, dies ist jedoch nicht vollständig erforderlich.

    diesen Vortrag von Andrew Davison bei Imperial Das College London gibt einen guten Überblick über die beteiligte Mathematik. (Der Rest des Kurses ist höchstwahrscheinlich auch für Sie sehr interessant, da Sie versuchen, was Sie erstellen möchten). Viel Glück!

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top