Frage

Ich weiß, dass es im Allgemeinen kein Problem ist, HTML (und sogar erweiterte Kompositionsoperationen) in HTML5 -native Video zu überlagern. Ich habe beispielsweise coole Tricks mit dem Ausgleich von grünen Bildschirmen in Echtzeit im Browser gesehen.

Was ich jedoch noch nicht gesehen habe, ist etwas, das In-Video-Inhalte, vielleicht auf Pixelebene, nachverfolgt und die komponierte Überlagerung gemäß den Abläufen verändert. Bewegungsverfolgung im Grunde genommen. Ein gutes Beispiel wäre eine Augmented Reality-Art von App (wenn auch der Einfachheit halber, sagen wir, ein Überlagerung über On-Demand-Videos zu erweitern und nicht Live-Video).

Hat jemand solche Projekte oder noch besser irgendwelche Frameworks für HTML5 -Videoüberlagerung (außer Transportkontrollen) gesehen?

War es hilfreich?

Lösung

Wenn wir das Canvas -Tag verwenden, um die Instanzen des Videos zu erfassen, können wir die Pixel -Level -Informationen des Videos erhalten. Dann können wir die Bewegungsverfolgung erkennen, denke ich. Möglicherweise ist die Arbeit von HTML5, die Pixel -Informaion zu packen, und dann ist es unsere Arbeit, die Dinge zu erkennen, die wir brauchen.

Und ich habe keinen solchen Rahmen für HTML5 -Video -Tag gefunden, da es kein gemeinsames Videoformat gibt, das von allen Browsern unterstützt wird ...

Andere Tipps

Der Canvas -Tag -Videomodus wird von iOS nicht unterstützt.

Drahtwachs baute dafür eine offene API. Funktioniert ganz gut - sogar auf dem iPhone.

http://www.wirewax.com/

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top