Frage

Ich bin für Ideen suchen ist, wie eine 30 konvertieren + gb, 2000+ farbige TIFF-Bild-Serie in einen Datensatz kann in Echtzeit visualisiert wird (interaktive Bildwiederholraten) unter Verwendung von GPU-basierten Volume-Rendering (mit OpenCL / OpenGL / GLSL ). Ich möchte statt Oberflächenanpassung eine direkte Volumenvisualisierung Ansatz verwenden (das heißt Raycastings statt Würfel Marsch).

Das Problem ist zweifach, zuerst muß ich meine Bilder in einen 3D-Datensatz konvertieren. Das erste, was mir in den Sinn kam, ist es, alle Bilder als 2D-Texturen zu sehen und einfach stapeln sie eine 3D-Textur zu erstellen.

Das zweite Problem ist die interaktiven Frameraten. Dafür brauche ich eine Art wahrscheinlich in Kombination mit „Details-on-demand“ Laden der high-res Dataset beim Zoomen oder etwas Abwärtsabtastens.

Ein erster punktuellen Ansatz i gefunden ist:

  1. Polygonisation des gesamten Volumendaten durch die Schicht-für-Schicht-Verarbeitung und Erzeugen entsprechender Bildtextur;
  2. alle wesentlichen Transformationen durch Vertex-Prozessor Operationen durchzuführen;
  3. Dividieren polygonale Scheiben in kleinere Fragmente, in denen die entsprechende Tiefe und Textur-Koordinaten aufgezeichnet sind;
  4. in Fragment-Verarbeitung, die Vertex-Shader-Programmiertechnik Entfalten die Wiedergabe von Fragmenten zu verbessern.

Aber ich habe keine konkreten Vorstellungen davon, wie dieser Ansatz zu Beginn der Umsetzung.

Ich würde gerne ein paar frische Ideen oder Ideen auf, um zu sehen, wie die Annäherung an Beginn der Umsetzung oben gezeigt.

War es hilfreich?

Lösung

Wenn jemand irgendwelche neuen Ideen in diesem Bereich hat, werden sie wahrscheinlich zu versuchen, sie zu entwickeln und zu veröffentlichen. Es ist ein kontinuierlicher Bereich der Forschung.

In Ihrem „punktuellen Ansatz“, so scheint es, wie Sie die grundlegende Methode der Scheibe basierte Volumen-Rendering skizzierten. Dies kann gute Ergebnisse liefern, aber viele Menschen zu einem Hardware-Ray-Casting-Verfahren wechseln. Es ist ein Beispiel dafür in der CUDA SDK, wenn Sie interessiert sind.

Eine gute Methode zum hierarchischen Volume-Rendering wurde von Crassin detailliert et al. in ihrem Papier namens Gigavoxels . Es verwendet einen Octree-basierter Ansatz, den nur Lasten Ziegel im Speicher benötigt, wenn sie benötigt werden.

Ein sehr gutes Einführungsbuch in diesem Bereich ist Real-Time Volume Graphics .

Andere Tipps

Ich habe ein bisschen von Volume-Rendering getan, wenn mein Code eine Iso-Oberfläche mit Marsch Würfel erzeugt und angezeigt, dass. Allerdings Rendering ich in meiner bescheidenen Selbsterziehung des Volumens auf ein interessantes kurzes Papier kam: Volume Rendering auf gemeinsame Computer-Hardware . Es kommt mit zu Quelle Beispiel. Ich habe nie überprüft es aus der Nähe, aber es schien viel versprechend. Es ist es DirectX aber nicht OpenGL. Vielleicht kann es Ihnen ein paar Ideen und einen Platz zu starten.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top