Question

Comment Google Maps utilise-t-il ses panoramas dans Street View?

Oui, je connais son Flash, mais comment faussent-ils les bitmaps avec texture correcte Cartographie?

Le font-ils au niveau des pixels comme la plupart des Moteurs Flash 3D? , ou simplement appliquer une transformation délicate aux images bitmap dans les clips vidéos?

Était-ce utile?

La solution

Le lecteur Flash Panorama peut vous aider à obtenir un résultat similaire!

Il utilise 6 images équirectangulaires (faces de cube) assemblées de manière transparente . avec du code ActionScript "magique".

Voir également ces parties de flashpanos.com pour les plugins et tutoriels avec (éventuellement) de la documentation.

Un guide de prise de vue panoramique afin que vous puissiez les visualiser. avec FPP (Flash Panorama Player).

  Les surfaces de cube

Projection cubique sont en réalité rectilignes à 90x90 degrés   des images comme celles que vous obtenez d'un objectif d'appareil photo normal. ~ Qu'est-ce que la photographie VR?

Autres conseils

Découvrez http://www.panoguide.com/ . Ils ont des howtos, des liens vers des logiciels, etc.

Le processus comprend essentiellement 2 composants: le logiciel d'assemblage qui crée une photo panoramique unique à partir de nombreuses sources d'image distinctes, puis le visualiseur panoramique, qui déforme l'image lorsque vous modifiez votre POV pour simuler ce que vos yeux verraient. si vous y étiez réellement.

Ma société utilise le moteur de rendu flash Papervision3D et mappe une image panoramique (image fixe ou video) sur une sphère 3D. Nous avons constaté que l’utilisation d’un objet sphérique avec environ 25 divisions le long des deux axes donne un bien meilleur résultat visuel que de mapper la même image sur les six faces d’un cube. Vérifiez-le par vous-même à l'adresse http://www.panocast.com .

En fait, vous pouvez bien sûr déformer votre image à l’avance. Ainsi, lorsqu’elle est mappée sur les faces d’un cube, sa perspective est parfaite, mais cela nécessite le rendu complet de vos images.

Avec un peu plus de "magie", nous pouvons également charger des images fixes de manière incrémentielle, selon les besoins, en fonction de la position de l'utilisateur et du niveau de zoom utilisé (contrairement à Google Street View).

En ce qui concerne ce que Google fait réellement, Bork avait ce droit. Je ne suis pas sûr des détails exacts (et je ne suis pas sûr de pouvoir publier les détails même si c'est le cas), mais Google enregistre des scènes de streetview individuelles à 360 degrés dans un représentation équirectangulaire pour le service. Le lecteur utilise ensuite une série de transformations affines pour afficher l'image en perspective. Les transformations affines sont approximatives, mais suffisantes pour permettre l’agrégation globale.

Le calcul des images servies est très complexe, car de nombreuses étapes de traitement des images doivent être effectuées: supprimer des visages, rendre compte de la floraison, etc., etc. En ce qui concerne l'assemblage des panoramas, il existe de nombreuses algorithmes pour cela ( article de wikipedia ). Juste une chose intéressante que j'aimerais toutefois souligner, en tant que matière à réflexion, dans les panoramas à 360 degrés sur Street View, vous pouvez voir la route au bas de l'image, où il n'y avait pas de caméra sur les voitures. Maintenant, c’est la couture.

Une caméra coûteuse.
C'est assez impressionnant de regarder une vidéo qui permet d'effectuer un panoramique dans toutes les directions ... c'est ce que la Street View est sans la bande passante pour supporter la vidéo complète.

Pour ceux qui se demandent comment les photographes et les éditeurs de Google VR ajoutent du terrain à leurs panoramas équirectangulaires, consultez la fonctionnalité appelée Correction du point de vue, comme le montre un logiciel comme PTGui:

ptgui.com/excamples/vptutorial.html

(Notez qu'il ne s'agit PAS du logiciel utilisé par Google.)

Si vous examinez le sol de plus près en mode Street View, vous constatez que les points semblent trop tendus et que, parfois, ils chevauchent même des informations du point de vue situé à côté du point de vue actuel. (Je veux dire par là que vous pouvez voir quelque chose à un endroit et que soudainement cette même caractéristique est représentée par le sol à un autre endroit, révélant la technique utilisée pour la couture au sol).

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top