Pregunta

Hasta ahora he podido crear una aplicación donde el sensor KINECT esté en un lugar. He utilizado el reconocimiento de voz EMGUCV (Open CV) y Aforg.net para ayudarme a procesar una imagen, aprender y reconocer objetos. Todo funciona bien, pero siempre hay un alcance de mejora y estoy planteando algunos problemas: [ignore los tres primeros que quiero la respuesta para el cuarto]

  1. La tasa de fotogramas es horrible. Es como 5 FPS a pesar de que debería ser como 30 fps. (Esto es sin todo el procesamiento) Mi aplicación se está ejecutando bien, obtiene el color, así como los marcos de profundidad de la cámara y lo muestran. Aún así, la velocidad del marco es mala. Las muestras funcionan increíbles, alrededor de 25 fps. Aunque corrí al mismo código exacto de las muestras que no se movió. :-( [No hay necesidad de código, por favor, dígame los posibles problemas.]

  2. Me gustaría crear un pequeño robot en el que se montará el kinect y mi computadora portátil. Intenté usar el kit Mindsorms, pero los motores LowTorque no hacen el truco. Por favor, dime cómo lo lograré.

  3. ¿Cómo suministro el poder a bordo? Sé que el kinect utiliza 12 voltios para el motor. Pero obtiene eso de un adaptador de CA. [No me gustaría cortar mi cable y reemplazarlo con una batería de 12 voltios]

  4. La pregunta más grande: ¿cómo en este mundo va a navegar? He hecho un * e algoritmos de llenado de inundación. Leí este Papel como mil veces y no tengo nada. Tengo el algoritmo de navegación en mi mente, pero ¿cómo en la Tierra se localizará? [No debe usar GPS ni ningún tipo de otros sensores, solo sus ojos es decir, el kinect]

    ayudándome será increíble. Soy un novato, así que por favor, no esperes que lo sepa todo. He estado en Internet por 2 semanas sin suerte.

    ¡Gracias mucho!

¿Fue útil?

Solución

La localización es una tarea difícil, ya que depende de tener un conocimiento previo del entorno en el que se colocará su robot ( i.e. un mapa de su casa). Mientras que los algoritmos existen para la localización y el mapeo simultáneos, tienden a ser específicos de dominio y, como tal, no aplicable al caso general de colocar un robot en una ubicación arbitraria y tenerlo mapee su entorno de manera autónoma.

Sin embargo, si su robot hace tiene una idea aproximada (probabilística) de lo que parece su entorno, La localización de Monte Carlo es una buena opción. En un nivel alto, va algo como:

  1. En primer lugar, el robot debe hacer una gran cantidad de conjeturas aleatorias (llamadas las partículas ) en cuanto a dónde podría estar dentro de su entorno conocido.
  2. Con cada actualización del sensor (es decir, después de que el robot se haya movido una distancia corta), ajusta la probabilidad de que cada una de sus conjeturas aleatorias sea correcta utilizando un modelo estadístico de sus datos de sensores actuales. Esto puede funcionar especialmente bien si el robot toma mediciones de sensores 360º, pero esto no es completamente necesario.

    esta conferencia por Andrew Davison at Imperial College London da una buena visión general de las matemáticas involucradas. (El resto del curso es muy probable que sea muy interesante para usted también, dado lo que está tratando de crear). Buena suerte!

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top