Frage

Ich möchte in der Lage sein, den Video-Feed der AR-DRONE 2 von einem Debian-Server zum Blinken zurückzusetzen.

Ich bin mir bewusst, dass der AR-Drohne den Codec P264 verwendet.Ich bin total grün, wenn es um Video-Codecs geht, also weiß ich nicht, was für das Ziel geeignet ist, das ich erreichen möchte?

Ich konnte die Video-Feed von der AR-Drohne streamen, aber mit sehr hoher Latenzzeit und extrem niedriger Qualität, verglichen mit, wenn ich direkt mit dem FFPlay direkt mit der AR-Drohne herklebt.

Ich benutze derzeit das .swf-Beispiel in der standard ffserver.conf: generasacodicetagpre.

und die Einstellungen für den .FFM-Feed sind wie folgt: generasacodicetagpre.

Der Befehl, den ich für die Eingabe des FFServer-Feeds verwende: generasacodicetagpre.

Wie kann ich eine niedrigere Latenzzeit und eine höhere Qualität erreichen, da der Strom derzeit unerwünscht ist?

War es hilfreich?

Lösung

Leider wird FFServer einfach nicht den Job bekommen, den Sie erledigen möchten.Sie haben dieselbe Wand wie alle anderen im Internet getroffen.Das Beste, was ich bekommen kann, ist etwa 3 Sekunden lang, was allmählich auf etwa 5-10 Sekunden erhöht, da der Strom ein paar Stunden läuft.

Der Stream dekodiert nicht mit FFMPEG für mich auch.Keine Ahnung warum.Es funktioniert mit dem FFPLAY, das mich einfach mehr verwirrt!

Ich schaue in Py-Media, um zu sehen, ob ich einfach meinen eigenen Code für ein ähnliches Projekt schreiben kann.Ich möchte Ardrone-Video stream und die Bilder im Bach minipulieren.

p.s.Schauen Sie in GStreamer, ich sah, dass andere diskutieren, dass es verschiedene Ergebnisse ergibt.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top