Zugegeben, ich bezog mich hauptsächlich auf Film, da kenn ich mich besser aus. Ich selbst sehe die Spielegrafik auch noch nicht gleichauf beim Film. Mag in ein paar Jahren ansatzweise in manchen Bereichen da hinkommen, wo Film derzeit ist, ja. Aber im Filmbereich, bzw. 3D Visualisierungen allgemein bleibt die Technik auch nicht stehen. Besonders interessant sind mMn ja die Ansätze von Paul Devebec: http://gl.ict.usc.edu/ aber auch moderne GPU Renderer wie Octane ( http://render.otoy.com/ ).maho76 hat geschrieben:auch wenn ich in bezug auf spiele nicht mit dir konform gehe wenn man bedenkt wieviel zeit rendermaschinen für solche Berechnungen auch auf richtig potenter hardware brauchen
Abgesehen davon hat in dem Artikel ein Character Lead Artist aus dem Nähkästchen geplaudert. Der denkt dabei ziemlich sicher ausschließlich an die Darstellung von Charakteren. Ist ja schließlich sein Job. Der macht sich weder Gedanken um sonstige Digital Assets oder gar Game Design.
Noch etwas zu dem Punkt der Berechnungszeiten, der so oft angesprochen wird. Dabei wird mMn. oft vergessen, dass viele Elemente für Spiele vorberechnet werden. Bspw. rechnet man die HiRes Geometrie auf die LoRes Geometrie für Spiele runter, die Daten werden in der Normal Map gespeichert. Für klassische Renderings macht man das nicht, allein weil der Aufwand zu groß ist (und die Lichtverteilung durch indirektes Licht ungenauer). Das spart Dir aber schon mal richtig viel RAM und Rechenzeit bei der Streulichtberechnung (GI). Und zum anderen sind Grafikkarten im Gegensatz zu CPUs auf manche Grafikberechnungen spezialisiert. Sei es deren GPUs, die bei einfachen Rechenoperationen (wie bspw. Rays in der Gegend rumballern für AO, GI o.ä.), aber auch die Grafikkartentreiber im speziellen. Ein CPU based Renderer muss dagegen vielseitig sein und alles verarbeiten können, was ihm entgegen geworfen wird.
