Ansich ist das immer echtes 3D, d.h. die dargestellten Objekte sind über dreidimensionale Koordinaten definiert.
Für die Darstellung wird dann mittels Projektion ein 2D Bild erzeugt.
Wenn zwei Bilder mit passenden Projektionen erzeugt werden, kann über ein entsprechendes Ausgabemedium der Effekt erreicht werden, dass die beiden Bildinformationen im Gehirn wieder als 3D Information zusammengesetzt werden.
Es ist im Wesentlichen eine Frage der Grafikhardware, d.h. ob sie in der Lage ist, gleichzeitig zwei entsprechende Bilder zu erzeugen und diese in einem Format auszugeben, die ein 3D Fernseher verstehen würde.
Das Programm muss zwar auch entsprechende Anweisungen erteilen, aber die Daten der Objekte sind normalerweise die selben wie für die klassische 2D Darstellung am Monitor.
Was @krake schreibt ist aus meiner Sicht zutreffend.
Vielleicht kann man noch präzisieren, dass es sich meistens um texturierte Oberflächen im dreidimensionalen Raum handelt, die mit geschwindigkeits-optimierten Verfahren für eine hübsche Ansicht aufbereitet werden. Das entspricht dem, was man von 3D-Spielen und (teil-)animierten Filmen gewohnt ist. Stereoskopie, wie sie @krake beschreibt kann optional darauf aufsetzen.
Es handelt sich aber nicht um Körper, deren Raum ausfüllend beschrieben wird. Beispiel hier wären medizinische "Bilder" eines MRT oder eines PET-Scans, die Volumen aus Voxeln zusammensetzen. Die übliche Rechenleistung eines PCs reicht für solche Objekte (Nebel-Effekte mal außen vor) noch nicht aus.
Aber Menschen tun sich ohnehin schwer, mit ihren Augen (2D-Abbildung auf der Retina) Volumen zu "durchschauen"; schon Schlieren in einer Flüssigkeit vollständig zu erfassen, ist quasi unmöglich. Insofern ist die Herangehensweise 3D-Objekte auf ihre Oberfläche zu vereinfachen durchaus gerechtfertigt.
Ansich ist das immer echtes 3D, d.h. die dargestellten Objekte sind über dreidimensionale Koordinaten definiert.
Für die Darstellung wird dann mittels Projektion ein 2D Bild erzeugt.
Wenn zwei Bilder mit passenden Projektionen erzeugt werden, kann über ein entsprechendes Ausgabemedium der Effekt erreicht werden, dass die beiden Bildinformationen im Gehirn wieder als 3D Information zusammengesetzt werden.
Es ist im Wesentlichen eine Frage der Grafikhardware, d.h. ob sie in der Lage ist, gleichzeitig zwei entsprechende Bilder zu erzeugen und diese in einem Format auszugeben, die ein 3D Fernseher verstehen würde.
Das Programm muss zwar auch entsprechende Anweisungen erteilen, aber die Daten der Objekte sind normalerweise die selben wie für die klassische 2D Darstellung am Monitor.
Was @krake schreibt ist aus meiner Sicht zutreffend.
Vielleicht kann man noch präzisieren, dass es sich meistens um texturierte Oberflächen im dreidimensionalen Raum handelt, die mit geschwindigkeits-optimierten Verfahren für eine hübsche Ansicht aufbereitet werden. Das entspricht dem, was man von 3D-Spielen und (teil-)animierten Filmen gewohnt ist. Stereoskopie, wie sie @krake beschreibt kann optional darauf aufsetzen.
Es handelt sich aber nicht um Körper, deren Raum ausfüllend beschrieben wird. Beispiel hier wären medizinische "Bilder" eines MRT oder eines PET-Scans, die Volumen aus Voxeln zusammensetzen. Die übliche Rechenleistung eines PCs reicht für solche Objekte (Nebel-Effekte mal außen vor) noch nicht aus.
Aber Menschen tun sich ohnehin schwer, mit ihren Augen (2D-Abbildung auf der Retina) Volumen zu "durchschauen"; schon Schlieren in einer Flüssigkeit vollständig zu erfassen, ist quasi unmöglich. Insofern ist die Herangehensweise 3D-Objekte auf ihre Oberfläche zu vereinfachen durchaus gerechtfertigt.