Question

Jusqu'à présent, j'ai pu créer une application dans laquelle le capteur de kinect est au même endroit. J'ai utilisé la reconnaissance vocale Emgucv (Open CV) et Aforge.net pour m'aider à traiter une image, apprendre et reconnaître des objets. Tout fonctionne bien, mais il y a toujours des problèmes d'amélioration et je pose des problèmes: [Ignorer les trois premiers, je veux la réponse pour le quatrième]

  1. Le taux de trame est horrible. C'est comme 5 fps même s'il devrait être comme 30 fps. (Ceci est sans tout le traitement) Mon application fonctionne bien, il obtient des couleurs aussi bien que des cadres de profondeur de la caméra et l'affiche. Toujours le taux de trame est mauvais. Les échantillons fonctionnent génial, environ 25 fps. Même si j'ai couru exactement le même code des échantillons, il ne sera pas juste bouger. :-( [Il n'y a pas besoin de code, s'il vous plaît dites-moi les problèmes possibles.]

  2. Je voudrais créer un petit robot sur lequel le kinect et mon ordinateur portable seront montés sur. J'ai essayé d'utiliser le kit Mindstorms, mais les moteurs lowtorques ne font pas l'affaire. S'il vous plaît dites-moi comment vais-je y parvenir?

  3. Comment fournir la puissance à bord? Je sais que le kinect utilise 12 volts pour le moteur. Mais cela obtient cela d'un adaptateur secteur. [Je ne voudrais pas couper mon câble et le remplacer par une batterie de 12 volts]

  4. La plus grande question: comment dans ce monde naviguera-t-elle. J'ai fait un * et des algorithmes de remplissage d'inondation. J'ai lu Ceci papier comme mille fois et je n'ai rien eu. J'ai l'algorithme de navigation dans mon esprit mais comment sur terre sera-t-il localiser? [Il ne doit pas utiliser de GPS ou de tout type d'autres capteurs, juste ses yeux, c'est-à-dire le kinect]

    m'aider, sera génial. Je suis un débutant alors s'il vous plaît ne vous attendez pas à tout savoir. Je suis sur Internet pendant 2 semaines sans chance.

    Merci beaucoup!

Était-ce utile?

La solution

La localisation est une tâche délicate, car elle dépend de la connaissance préalable de l'environnement dans lequel votre robot sera placé ( i.e. une carte de votre maison). Tandis que des algorithmes existent pour la localisation et la cartographie simultanées, ils ont tendance à être spécifiques à un domaine et, en tant que tel, non applicables au cas général de placer un robot dans un endroit arbitraire et de sa cartographier son environnement de manière autonome.

Cependant, si votre robot fait a une idée approximative (probabiliste) de ce que son environnement ressemble, la localisation de Monte Carlo est un bon choix. Sur un niveau élevé, ça va comme:

  1. Premièrement, le robot doit faire un grand nombre de suppositions aléatoires (appelées particules ) quant à l'endroit où elle pourrait éventuellement être dans son environnement connu.
  2. Avec chaque mise à jour du capteur (c'est-à-dire après que le robot a déplacé une courte distance), il ajuste la probabilité que chacune de ses suppositions aléatoires soit correcte à l'aide d'un modèle statistique de ses données de capteur de courant. Cela peut fonctionner particulièrement bien si le robot prend des mesures de capteur à 360º, mais cela n'est pas complètement nécessaire.

    Cette conférence par Andrew Davison à Imperial College London donne un bon aperçu des mathématiques impliquées. (Le reste du parcours sera probablement très intéressant pour vous aussi, étant donné ce que vous essayez de créer). Bonne chance!

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top