Question

Je veux pouvoir se limiter au flux vidéo du drone AR 2 d'un serveur Debian pour flash.

Je suis conscient que le drone AR utilise le codec p264.Je suis totalement vert quand il s'agit de codecs vidéo, je ne sais donc pas ce qui conviendra à l'objectif que je veux atteindre?

J'ai pu diffuser le flux vidéo à partir du drone AR mais avec une très forte latence et une qualité extrêmement basse, par rapport à lorsque je me connecte directement au drone AR à l'aide de FFPLAY.

J'utilise actuellement l'exemple .swf dans la norme FFSERVER.CONF:

<Stream test.swf>
Feed feed1.ffm
Format swf
VideoFrameRate 30
VideoIntraOnly
NoAudio
</Stream>

et les paramètres de l'alimentation .ffm sont les suivants:

<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 17K
ACL allow 127.0.0.1
NoAudio
</Feed>

La commande que j'utilise pour donner une entrée dans l'alimentation FFServer:

ffmpeg -i http://192.168.1.1:5555 http://localhost:8090/feed1.ffm

Comment suis-je capable d'atteindre une latence plus faible et une qualité supérieure, car le flux n'est actuellement en charge?

Était-ce utile?

La solution

Malheureusement, FFServer ne fera tout simplement pas le travail que vous voulez faire.Vous avez frappé le même mur que tout le monde sur Internet.Le mieux que je puisse obtenir est d'environ 3 secondes retards qui augmente progressivement à environ 5 à 10 secondes, car le flux fonctionne pendant quelques heures.

Le flux ne décodage pas avec FFMPEG pour moi aussi.Je ne sais pas pourquoi.Cela fonctionne avec FFPLAY qui me confondit plus!

Je regarde dans Py-Media pour voir si je peux simplement écrire mon propre code pour un projet similaire.Je veux diffuser une vidéo Ardrone et minipuler les images dans le flux.

P.s.Regardez dans Gstreamer, j'ai vu d'autres en discutant des résultats différents.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top