Pregunta

Quiero poder restringir la fuente de video del AR DRONE 2 de un servidor Debian a Flash.

Soy consciente de que el drone de AR utiliza el códec P264.Soy totalmente verde cuando se trata de códecs de video, ¡así que no sé qué será adecuado para la meta que quiero lograr?

He podido transmitir la alimentación de video del drone de AR, pero con una latencia muy alta y una calidad extremadamente baja, en comparación con cuando me conecto directamente al drone de AR usando FFPlay.

Actualmente uso el ejemplo .swf en el estándar ffserver.conf:

<Stream test.swf>
Feed feed1.ffm
Format swf
VideoFrameRate 30
VideoIntraOnly
NoAudio
</Stream>

y la configuración de la fuente .ffm son las siguientes:

<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 17K
ACL allow 127.0.0.1
NoAudio
</Feed>

El comando que utilizo para dar entrada a la fuente FFSERVER:

ffmpeg -i http://192.168.1.1:5555 http://localhost:8090/feed1.ffm

¿Cómo puedo lograr una menor latencia y una mayor calidad, ya que la corriente es actualmente sin sentido?

¿Fue útil?

Solución

Lamentablemente FFServer simplemente no obtendrá el trabajo que desea hacer.Has golpeado la misma pared que todos los demás en Internet.Lo mejor que puedo obtener es de aproximadamente 3 segundos, lo que aumenta gradualmente a unos 5-10 segundos a medida que la corriente se ejecuta durante unas horas.

La corriente no está decodificando con FFMPEG para mí también.Yo no sé por qué.¡Funciona con FFPlay que me confunde más!

Estoy buscando en PY-Media para ver si puedo escribir mi propio código para un proyecto similar.Quiero transmitir video de ardornación y minipule las imágenes en la corriente.

P.s.Mire en Gstreamer, vi a otros discutirlo produce diferentes resultados.

Licenciado bajo: CC-BY-SA con atribución
No afiliado a StackOverflow
scroll top