Die Grundlagen für povray sind ab 1986 entstanden und erst heute, also nach 33 Jahren soll diese Technologie auch in Echtzeit genutzt werden können?...
Na gut, nicht umsonst gibt es das Sprichwort "Gut Ding will Weile haben"; hoffen wir, dass es wirklich ein "gutes Ding" werden wird
Es grüsst
Roland
Dieser Beitrag wurde 1 mal editiert. Zuletzt am 24. Apr 2019 um 11:03.
Es kommt immer auf die Auflösung und die Anzahl der Elemente an, die du darstellen willst. Für damalige Anforderungen: Auflösung von 160x120 und ein paar Dreiecke wäre heute Keiner bereit dafür auch nur einen Cent auszugeben.
Über die schwebenden Kugeln über den Schachbrettern und die Utah Kanne kann man heute nur lachen.
Die eigentliche Hürde ist die sehr hohe Leistung der Rasterizern in Kombination mit hoch optimierten Engines (Unreal, Unity, Cry) die einem alle Arbeit abnehmen. Diese können mit aktuellen Grafikkarten schon lange nahezu photorealistische Szenen in 4K darstellen. Viele frühere Hürden der Rasterizer sind heute einfach nicht vorhanden. Die Texturen werden automatisch skaliert. Level of Detail wird auch automatisch angepasst. Fog of view ist auch nicht mehr notwendig.
All das kann Raytracing auch nicht Ad-Hoc. Es müssen Algorithmen gefunden und erst in die Engines implementiert werden. Nur dann werden sie eingesetzt. Heute programmiert auch keiner (der noch bei Sinnen ist) ohne eine vernünftige IDE. Da kommt einfach nichts brauchbares raus.
Die Techniker der Unreal Engine haben sich auch mal dazu geäußert. Es hieß, dass man unter 50 TFlops (wahrscheinlich single precision, da sich nicht alles lässt als Tensor darstellen lässt) keine vernünftigen Renderszenen hinbekommt. Meine Quadro GP100 kann erst 15 TFlops im FP32 Modus. Daher bleibt es wohl die nächste Zeit erst einmal bei hybriden Ansätzen aus Rasterizern und ein wenig Raytracing.
Die Grundlagen für povray sind ab 1986 entstanden und erst heute, also nach 33 Jahren soll diese Technologie auch in Echtzeit genutzt werden können?...
Na gut, nicht umsonst gibt es das Sprichwort "Gut Ding will Weile haben"; hoffen wir, dass es wirklich ein "gutes Ding" werden wird
Es grüsst
Dieser Beitrag wurde 1 mal editiert. Zuletzt am 24. Apr 2019 um 11:03.Roland
Hä? Was erzählst du da?
Es kommt immer auf die Auflösung und die Anzahl der Elemente an, die du darstellen willst. Für damalige Anforderungen: Auflösung von 160x120 und ein paar Dreiecke wäre heute Keiner bereit dafür auch nur einen Cent auszugeben.
Über die schwebenden Kugeln über den Schachbrettern und die Utah Kanne kann man heute nur lachen.
Die eigentliche Hürde ist die sehr hohe Leistung der Rasterizern in Kombination mit hoch optimierten Engines (Unreal, Unity, Cry) die einem alle Arbeit abnehmen. Diese können mit aktuellen Grafikkarten schon lange nahezu photorealistische Szenen in 4K darstellen. Viele frühere Hürden der Rasterizer sind heute einfach nicht vorhanden. Die Texturen werden automatisch skaliert. Level of Detail wird auch automatisch angepasst. Fog of view ist auch nicht mehr notwendig.
All das kann Raytracing auch nicht Ad-Hoc. Es müssen Algorithmen gefunden und erst in die Engines implementiert werden. Nur dann werden sie eingesetzt. Heute programmiert auch keiner (der noch bei Sinnen ist) ohne eine vernünftige IDE. Da kommt einfach nichts brauchbares raus.
Die Techniker der Unreal Engine haben sich auch mal dazu geäußert. Es hieß, dass man unter 50 TFlops (wahrscheinlich single precision, da sich nicht alles lässt als Tensor darstellen lässt) keine vernünftigen Renderszenen hinbekommt. Meine Quadro GP100 kann erst 15 TFlops im FP32 Modus. Daher bleibt es wohl die nächste Zeit erst einmal bei hybriden Ansätzen aus Rasterizern und ein wenig Raytracing.