Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Moderatoren: Moderatoren, Redakteure
Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Luminous Productions, ein Teil der Square-Enix-Unternehmensgruppe, hat auf der japanischen CEDEC-Spiele-Entwicklerkonferenz eine Echtzeit-Raytracing-Demo mit dem Titel "Back Stage" präsentiert. Die Demo wurde in einer gemeinsamen Präsentation von Takeshi Aramaki (Leiter von Luminous Productions) und Masaya Takeshige (Nvidia-Entwickler-Technologieteam) vorgestellt.Die Demo von Back Stage lief auf e...
Hier geht es zur News Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Hier geht es zur News Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Komische Demo. Das Gezeigte könnte man problemlos mit herkömmlicher Technik realisieren. Ein Vergleich der Ergebnisse und des Arbeitsaufwands würde die Vorteile euer aufzeigen.
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Das ist richtig. Hab auch mal in einer Analyse gelesen, dass vieles des Gezeigten mit herkömmlichen Methoden erreichber ist und dass Nvidia in Vergleichsdemos teilweise altbekannte Techniken weglässt, um das Neue besser aussehen zu lassen.
Der größte Vorteil ist tatsächlich der geringere Arbeitsaufwand beim Erstellen, falls genug Rechenpower da ist, um Raytracing zu betreiben. Was allein als Grund schon locker ausreicht es zu verwenden, wenn möglich.
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Was für eine Analyse war das? Was heißt "erreichbar"?
Es ist natürlich so, daß viele der "herkömmlichen" Techniken mit Ray- bzw. Pathtracing obsolet werden und dann weggelassen werden können bzw. sollten.
Abgesehen davon ist ja Ray-/Pathtracing nichts Neues. Wird jetzt halt nur langsam auch auf bezahlbarer Hardware in Echtzeit realisierbar.
-
- Beiträge: 4791
- Registriert: 30.09.2014 11:40
- Persönliche Nachricht:
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
NOCH kannst du das gezeigte auch mit anderen Techniken realisieren.
Mit steigendem Detailgrad kippt das Verhältnis aber irgendwann in Zukunft zugunsten von Raytracing.
Daher ist die grundlegende Frage an der Technik ansich (also mal abgesehen von NVidias Preisvorstellungen etc):
Willst du irgendwann mit Rasterization vor einer Wand aus dann doch nicht mehr damit lösbaren Einschränkungen stehen und dann erst anfangen Raytracing zu entwickeln.
Oder fängst du lieber jetzt schonmal mit Raytracing an, auch wenn es aktuell noch keine brauchbaren Vorteile bringt ggf. sogar eher einen Mehraufwand an Rechenleistung braucht, aber wenn es dann mit Rasterization nichtmehr weitergeht, hast du schon brauchbares Raytracing in petto.
Deswegen sehe ich Raytracing momentan auch als Early-Adpoter-Zeug. Der Wald-und-Wiesen-Gamer braucht aktuell kein Raytracing und wird auch in naher Zukunft kein Raytracing brauchen. Aber jetzt schonmal damit anzufangen in diese Richtung zu entwickeln, finde ich durchaus gut.
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Genauso wie früher (im 2D Zeitalter) noch jede Animationsphase von Hand gezeichnet werden musste und trotzdem sehr geschmeidige Ergebnisse erreicht werden konnten, geht das jetzt mit Vektorgrafik sehr viel einfacher.
Ähnlich ist es mit dem größten Problem heute, der Beleuchtung. Von Hand, mit allerlei Tricks, erreicht man sehr gute Ergebnisse. Raytracing aber berechnet alles physikalisch korrekt.
Was fehlt ist Rechenleistung. Z.B. dauert eine komplexe Szene im Full Screen Raytracing auf einem 9700k + Highend-Graka in Profiqualität gut mal ne halbe Stunde für 1 (!) Frame. Das ist dann aber Fotorealismus!
Was Nvidia jetzt macht mit RTX, ist zwar Raytracing, aber mit wenigen Iterationen und eigentlich immer noch "Trickserei". Z.B. ist nach dem Rendern ein Entrauschfilter nötig, weil sonst alles viel zu pixelig wäre.
Ähnlich ist es mit dem größten Problem heute, der Beleuchtung. Von Hand, mit allerlei Tricks, erreicht man sehr gute Ergebnisse. Raytracing aber berechnet alles physikalisch korrekt.
Was fehlt ist Rechenleistung. Z.B. dauert eine komplexe Szene im Full Screen Raytracing auf einem 9700k + Highend-Graka in Profiqualität gut mal ne halbe Stunde für 1 (!) Frame. Das ist dann aber Fotorealismus!
Was Nvidia jetzt macht mit RTX, ist zwar Raytracing, aber mit wenigen Iterationen und eigentlich immer noch "Trickserei". Z.B. ist nach dem Rendern ein Entrauschfilter nötig, weil sonst alles viel zu pixelig wäre.
- Herschfeldt
- Beiträge: 1210
- Registriert: 12.06.2009 13:27
- Persönliche Nachricht:
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Dann verkauf ich meine RTX-Karte jetzt am besten flott wieder. So ist der Verlust eventuell noch geringer. Denn wenn noch mehr die Kommentare hier lesen geht es definitiv bergab mit der RTX-Euphorie & ich-bezahle-jeden-Preis-Mentalität.
Reach out and touch faith
-
- Beiträge: 5158
- Registriert: 09.10.2006 15:52
- User ist gesperrt.
- Persönliche Nachricht:
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
In der Tat eine sehr komische Demo. Zum einen ist sie ziemlich statisch. Es finden keine Änderungen in der Beleuchtung statt, die Beleuchtung ist relativ diffus (das ist gewünscht an einem Schminktisch), und die ganze Sache hat verhältnismäßig wenig Bewegung relativ zu Lichtern. Diese Demo könnte man wirklich problemlos mit normaler Grafiktechnologie realisieren.
Die "Tricks" die man für diese Szene braucht sind in den meisten Engines standardmäßig vorhanden und müssen nur genutzt werden. Ist zwar auch ein kleiner Aufwand, aber genau so sieht das auch für RTX aus. Das Backen der Lichtverhältnisse zum Beispiel erfordert kaum Aufwand.
Ich weiß nicht... die suchen sich echt seltsame Demos aus. Manchmal ist es kaum sichtbar, manchmal ziemlich irrelevant, manchmal auch recht nett, aber irgendwie wurde noch nicht so richtig ein handfester Vorteil gezeigt. Naja, die Technik ist auch noch in den Kinderschuhen, von daher wundert es nicht, wenn es noch nicht so wirklich was ist. Und wie schon gesagt wurde, werden bei NVidia-Vergleichsvideos bewusst schlechte Grafiken für "RTX Off" benutzt. Da werden selbst Technologie abgeschaltet, die schon in den 90ern verfügbar waren. Das hinterlässt bei mir wirklich einen schlechten Geschmack.
Ich wäre definitiv mehr dafür, das man die Tricks automatisiert, die jetzt schon möglich sind. Das würde zu einem besseren Grafik führen, ebenfalls ohne großen Mehraufwand für die Entwickler, und der größte Vorteil: Man könnte seine aktuelle Hardware erstmal behalten, und dreht an der Software. So wie es bei Konsolen mal üblich war.
Momentan löst man Probleme mit schnellerer Hardware. Das ist, finde ich, ziemlich verschwenderisch.
Die "Tricks" die man für diese Szene braucht sind in den meisten Engines standardmäßig vorhanden und müssen nur genutzt werden. Ist zwar auch ein kleiner Aufwand, aber genau so sieht das auch für RTX aus. Das Backen der Lichtverhältnisse zum Beispiel erfordert kaum Aufwand.
Ich weiß nicht... die suchen sich echt seltsame Demos aus. Manchmal ist es kaum sichtbar, manchmal ziemlich irrelevant, manchmal auch recht nett, aber irgendwie wurde noch nicht so richtig ein handfester Vorteil gezeigt. Naja, die Technik ist auch noch in den Kinderschuhen, von daher wundert es nicht, wenn es noch nicht so wirklich was ist. Und wie schon gesagt wurde, werden bei NVidia-Vergleichsvideos bewusst schlechte Grafiken für "RTX Off" benutzt. Da werden selbst Technologie abgeschaltet, die schon in den 90ern verfügbar waren. Das hinterlässt bei mir wirklich einen schlechten Geschmack.
Ich wäre definitiv mehr dafür, das man die Tricks automatisiert, die jetzt schon möglich sind. Das würde zu einem besseren Grafik führen, ebenfalls ohne großen Mehraufwand für die Entwickler, und der größte Vorteil: Man könnte seine aktuelle Hardware erstmal behalten, und dreht an der Software. So wie es bei Konsolen mal üblich war.
Momentan löst man Probleme mit schnellerer Hardware. Das ist, finde ich, ziemlich verschwenderisch.
Wenn man bis zum Hals in der Scheiße steckt, sollte man nicht den Kopf hängen lassen.
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Ah, das ist gut zu wissen. Schon wieder hunderte Euro gespart!Dr. Hardware hat geschrieben: ↑04.09.2019 19:22Diese Demo könnte man wirklich problemlos mit normaler Grafiktechnologie realisieren.
-
- Beiträge: 4791
- Registriert: 30.09.2014 11:40
- Persönliche Nachricht:
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Das Problem ist eher, das NVidia das mit Gewalt in den Markt drückt. Wenn man Hi-End-GPU-Leistung will, musst du aktuell gezwungener Maßen RTX mitkaufen, weil es im ganz oberen Bereich, also ab 2070 nichts ohne RTX gibt.Herschfeldt hat geschrieben: ↑04.09.2019 19:05 Dann verkauf ich meine RTX-Karte jetzt am besten flott wieder. So ist der Verlust eventuell noch geringer. Denn wenn noch mehr die Kommentare hier lesen geht es definitiv bergab mit der RTX-Euphorie & ich-bezahle-jeden-Preis-Mentalität.
Das müssen sie aber wohl auch tun, weil wenn RTX als Zusatzkarte für 300€ verkauft werden würde, würden die Dinger aktuell wohl wie Blei in den Regalen liegen. Dann muss NVidia die ganze Entwicklung noch weiter vorfinanzieren und hat keinerlei Garantien.
Das sie damit nicht unbedingt nur Wohlwollen erzeugen, haben sie erkannt und die 1600er nachgeschoben, aber das obere Segment bleibt geschlossen, da MUSST du RTX mitkaufen. Deswegen gibts auch keine 1680ti. Genau so eine wäre zum entsprechenden Preis der absolute Renner, aber das finanziert die Entwicklung halt nicht.
Und wie das so in einer Marktwirtschaft halt nunmal funktioniert, würde RTX über kurz oder lang wieder auf der Strecke bleiben.
Aber (das ist eine pure Vermutung von mir) in 5-10 Jahren könnte das Verhältnis kippen und dann will NVidia halt nicht mit Raytracing das noch in den Kinderschuhen steckt dastehen.
Dann hast du nämlich das Problem, das man bei VR (mal wieder) sieht: Dann wäre der Technologiewechsel nämlich erstmal ein Rückschritt, den wieder keiner gehen will. Bei VR wird immer gemeckert, das es mehr Leistung braucht und trotzdem deutlich schlechter aussieht. Die VR-Experience kompensiert das für viele offensichtlich nicht. Deswegen krebst VR halt auch irgendwie nur so rum. Der Zug ist aber abgefahren, VR kann diesen leistungstechnischen Nachteil aufholen, weil wenn mehr Leistung verfügbar ist, wird die sofort auch wieder in Bildschirm-Spiele gepumpt und VR hängt weiterhin hinterher.
Dadurch das die jetzt schon mit Raytracing anfangen, glätten die den Übergang massiv. Erstmal Hybridtechniken, die immerhin kleine Vorteile bieten und wenn die Leistung dann in ein paar Jahren ausreicht, dann gibts Vollgas.
Und gerade für VR ist übrigens auch Raytracing deutlich im Vorteil, da kippts dann noch schneller.
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Hier mal ein RTX-Beispiel ohne Entrauschfilter:
https://www.youtube.com/watch?v=sFhc951RhfI#t=541
Rauschen (Anzahl der Iterationen nimmt nach unten hin zu):
Wie man sieht ist heute mit modernster Heimcomputer-Technologie (2080Ti) selbst bei sehr einfachen Geometrien (Quake 2) kein zu Ende berechnetes Echtzeit Raytracing möglich, sondern eher eine Vorschau. Aber selbst das sieht natürlich schon sehr geil aus.
https://www.youtube.com/watch?v=sFhc951RhfI#t=541
Rauschen (Anzahl der Iterationen nimmt nach unten hin zu):
Wie man sieht ist heute mit modernster Heimcomputer-Technologie (2080Ti) selbst bei sehr einfachen Geometrien (Quake 2) kein zu Ende berechnetes Echtzeit Raytracing möglich, sondern eher eine Vorschau. Aber selbst das sieht natürlich schon sehr geil aus.
-
- Beiträge: 4791
- Registriert: 30.09.2014 11:40
- Persönliche Nachricht:
Re: Nvidia: Raytracing-Demo "Back Stage" auf Basis der Luminous Engine im Video
Braucht man ja (jetzt) auch nicht vollaufgelöst. Noch kann man kombinieren.
Zumal viele Berechnungen aktueller 3D-Spiele auch wenn die Grafik mit Rasterization berechnet wird, schon Raycasts sind (jeder Schuss in einem Shooter ist ein Raycast), die von entsprechender Hardwarebeschleunigung profitieren könnten. Man hält diese nur so gering wie möglich, weil schlicht und einfach die Rechenleistung fehlt.
Mit RTX von Nvidia kann schon wesentlich mehr machen, sogar soviel, das man das für die Grafik verwenden kann.
Zumal viele Berechnungen aktueller 3D-Spiele auch wenn die Grafik mit Rasterization berechnet wird, schon Raycasts sind (jeder Schuss in einem Shooter ist ein Raycast), die von entsprechender Hardwarebeschleunigung profitieren könnten. Man hält diese nur so gering wie möglich, weil schlicht und einfach die Rechenleistung fehlt.
Mit RTX von Nvidia kann schon wesentlich mehr machen, sogar soviel, das man das für die Grafik verwenden kann.