Leon-x hat geschrieben: ↑06.10.2022 09:05Verstehe ich wiederum nicht. Was sind denn speziell für RT entwickelte Spiele und welche sind es nicht?
RT ist im Grunde sehr simple. Man verschießt virtuelle Strahlen um ein Ergebnis zu berechnen. Je mehr desto präziser wird es. Eigentlich kein Hexenwerk was besondere Optimierung bedarf. Musst es nur in Engine einbetten und noch Möglichkeiten implementieren wie sich z.B. spiegelnde Oberflächen verhalten. Ob sie transparent sind wie Glas, diffus wie raue Metalloberflächen oder direkt reflektieren wie ein Spiegel oder blank poliertes Metal.
Sowas wird ohne Rt auch schon gemacht aber die Umsetzung ist recht zeitaufwändig da viel von Hand angepasst werden muss.
Kannst in jedem Game die gefakten SSR, Verschattung oder starre Lichtengine rauswerfen und eben durch Strahlenberechnung ersetzen.
Hardwarebeschleunigung setzt doch Nvidia ein mit ihren speziellen Recheneinheiten. Problem ist halt nur dass es zusätzliche Chipfläche kostet und die ist halt teuer. Da muss man erst den Spagat hinbekommen in Zeit wo eben nicht jedes Game RT hat. Brauchst nächsten Jahre klassische Rasterization. AMD hingegen versucht es über die CUs zu lösen und setzt daher eher auf Bruteforce.
Wir haben es schon mit unterschiedlichen Ansetzen zu tun.
Problem von RT ist eher dass es eben darauf ausgelegt ist realistisch zu sein. Sache die Leute halt eher langweilen kann. Wollen ehr wie im Film mit Filmkorn, Farbfiter und 24 Ruckelbilder ein anderes Erlebnis. Wenn Streifen wie mit dem iPhone in 4k/60fps gefilmt aussehen (wie z.B. der Hobbit oder Gemini Man) dann wird es eher abgelehnt. Leute wollen oft sogar eher überzeichnete Sachen sehen die sich von der realen Welt abheben. Nicht der Blick aus dem Fenster darstellen.
Allein Ausleuchtung in manchen Filmen ist oft recht unrealistisch.
Sind eher die grundlegenden Probleme warum einige Leute RT nicht als erstrebenswert ansehen. Entwickler hingegen wären wohl heilfroh wenn sie nur mit RT arbeiten müssten weil es eben Arbeitsschritte abnimmt. Ganzen "Fake-Effekte" wie bisher muss man halt alle einzeln sauber platzieren und einbauen. Umbruch kommt erst wenn halt Jeder RT-fähige Hardware hat. Kann also nur schleichender Prozess was über die Jahre kommt.
Das Raytracing simpel ist, wirkt ehrlich gesagt immer mehr wie ein Mythos. Insbesondere bei der jetzigen Nutzung.
Man sollte auch präzise mit dem Begriff sein imo: So wo ich das verstehe, ist Raytracing keine spezifische Technologie, es ist einfach das zurückverfolgen von Linien. Es gibt Raytracing als richtige "Rendermethode", aber das macht niemand. Auch nicht mit dem neusten Pathtracing-Zeugs.
Und momentan wird es einfach zur Unterstützung des klassischen rasterisierten Renderns genutzt. Wir rendern alles klassisch, und nutzen dann RT, um die Helligkeit von Pixeln, lokalen Gebieten, verschiedenen Arten von Reflektion wie beim Postprocessing nachträglich anzupassen. Das ist alles angepasst und kombiniert eine ganze Reihe verschiedener Effekte und Optimierungsmethoden. Und dann müssen Devs noch doppelt arbeiten, erst das normale Spiel machen, und dann alles für den optionalen RT-Mode anpassen.
Also ist es ein bisschen seltsam zu sagen, RT wäre "simpel", wenn wir es in einer tausendmal optimierten, begrenzten und "hybriden" Form nutzen. Guck dir doch Epics Lumen Demo an, und wie unglaublich kompliziert das eingebaut wurde. Da ist überhaupt nichts einfach. Aber es ist auch ein Beispiel für eine Demo, die nur mit RT laufen kann, welche speziell dafür gebaut ist.
Und nach all dem ist RayTracing ist genauso "fake" wie jede andere Technologie auch. Es hilft nur ein bisschen, die Präzision von dynamischen Lichtfall zu erhöhen. Perfekt ist es trotzdem nicht mal ansatzweise, die Beleuchtung sieht im Detail und um Objekte herum immer noch sehr unglaubwürdig aus. Reflektionen sind stark vereinfacht.
Von Realismus sind wir tatsächlich so weit weg, dass ich keine Ahnung habe, was du mit "realistisch langweilig" meinst. Wäre toll, wenn wir da wären, "Langweiligkeit" wäre für mich tatsächlich unheimlich Beeindruckend. Aber obwohl Reflektionen und Lichtfall mit RT-Support ein bisschen glaubwürdiger umgsetzt werden, was durchaus positiv ist, sieht das Spiel sonst genauso künstlich aus wie sonst auch. Es ist genau die gleiche Videospiel-Optik. Gerade in der 4090 Pathtracing-Demo von Cyberpunk war der Lichtfall sogar überzogen, es wirkte etwas lächerlich. Das muss also nicht realistisch umgesetzt werden.
An sich scheint RT-Support meistens ein Upgrade zu sein, aber es ist ein leichtes, imperfektes Upgrade, welches den Rest des Spiels nicht wirklich glaubwürdiger macht. Ironischerweise ist RT so teuer, dass es meist gar keine Ressourcen übrig lässt, um den Rest des Spiels zu verbessern.
Unabhängig davon kommt dann der Preis, du halbierst die Framerate oder schlimmer. Was ist denn realistisch an einer niedrigen Framerate, welche meist unvermeidbar ist? Spiele mit 60fps sind gut genug zum Spielen, aber stottern visuell immer noch unnatürlich und hässlich über den Bildschirm.
Wieso entgeht ein ähnlicher Wiederspruch, wenn die 4090 angeblich realistisch Lichteffekte berechnen kann (schaut aber immer noch künstlich aus), und dann die Bildqualität mit mehreren Lagen DLSS runterschrauben muss?
Das ist halt selbst ein Problem bei Nvidia, deren Hardware-Unterstützung ist völlig inadequat. Du nennst AMDs CPU-Zeugs brute force, aber die immer noch miserable Performance bei Nvidia nicht? Das ist doch albern. Epics Lumen ist da sogar ein witziges Gegenbeispiel, weil es eine vereinfachte RT-Technik benutzt, die weniger komplex als Nvidias Hardware-Variante ist. Aber einfach und optimiert kann Nvidias Hardware-Unterstützung wohl nicht.