Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Temeter  »

bloub hat geschrieben: 24.09.2021 13:26wobei win10 auch nur noch 5 jahre leben wird, dann musst du umsteigen auf win11 oder was anderes ;).
Mal schauen. Trotz einiger Probleme ist Win10 generell eins der "guten" Windows, und die leben IIRC für gewöhnlich deutlich länger als erwartet. Auch wenn W11 eher ein großes Updates als neues Windows ist, dürften die strenger als üblichen Vorraussetzungen den Umstieg deutlich verlangsamen.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von johndoe711686 »

Naja, man hat uns damals gesagt es gibt kein anderes Windows als 10 mehr, nur noch Updates. Und jetzt bringen sie doch wieder ein 11.
Benutzeravatar
VaniKa
Beiträge: 703
Registriert: 12.11.2010 11:47
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von VaniKa »

Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: 24.09.2021 14:48Naja, man hat uns damals gesagt es gibt kein anderes Windows als 10 mehr, nur noch Updates. Und jetzt bringen sie doch wieder ein 11.
Es ist auch Unsinn, sich derart festlegen zu wollen. Ich habe da ja eine Theorie: Wie lange gab es jetzt Mac OS X? Das X steht da ja auch für 10, weil es davor Mac OS 9 gab. Daran wollte sich Microsoft einfach orientieren. Doch nun kommt plötzlich doch ein macOS 11 und somit ist dieses Paradigma, eine Version "für immer" zu haben, infrage gestellt vom großen Vorbild, von dem man sich offenbar hat inspirieren lassen. Allerdings sind das alles nur Namen. Man wird ja genau so kostenlos auf Windows 11 updaten können wie auf ein neues Frühjahr- oder Herbst-Update von Windows 10. Insofern viel Lärm um nichts, wenn man sich da jetzt irgendwie von Microsoft hintergangen fühlt.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von johndoe711686 »

10.0 von mac OS kam 2001, 11 dann erst 2020 und jetzt kommt 12. Offenbar sind sie von ihrem 10.X über viele Jahre also abgerückt und machen wieder mehr neue Hauptversionen.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Temeter  »

Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: 24.09.2021 14:48 Naja, man hat uns damals gesagt es gibt kein anderes Windows als 10 mehr, nur noch Updates. Und jetzt bringen sie doch wieder ein 11.
Sind halt Geschäftspläne. Wobei W11 ja auch nur ein größeres Update ist.
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von OchsvormBerg »

Temeter  hat geschrieben: 23.09.2021 15:01 Ich argumentiere eigentlich nur gegen Leute, die meinen mit DLSS hast du mehr Detail, als ohne DLSS. Und das wird dann irgendwie mit "KI" erklärt. Und das macht schlichtweg keinen Sinn.

Dass DLSS eine tolle Innovation ist, dagegen sage ich gar nichts.
Doch es macht Sinn. Es hat auch Niemand behauptet, dass ein Spiel mit DLSS pauschal detaillierter ist, aber teilweise ist es tatsächlich so. Ich zitiere dazu mal die PC Games, die DLSS 2.0 damals ausführlich anhand von Control getestet hat:
Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten. Durch das erlangte Wissen, bei dem 16K-Bilder die nachzubildende Referenz darstellen, gelingt es DLSS mitunter, Details darzustellen, die in gängigen Echtzeitauflösungen im Pixelraster verschwinden.
Dazu noch der Link zum Bericht:

https://www.pcgameshardware.de/Nvidia-G ... t-1346257/

Enthält auch Vergleichsscreens, die das sehr schön belegen.
Benutzeravatar
Chibiterasu
Beiträge: 28696
Registriert: 20.08.2009 20:37
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Chibiterasu »

Ich kenne mich ja gar nicht aus, aber logisch ist das für mich dann, wenn die Details schlicht durch das Erlernen des 16K Materials durch die KI passiert. Hier müsste man dann das Spiel in 16K nativ gerendert mit einer niedrigeren Auflösung durch DLSS auf 16K hochskaliert vergleichen (in 16K spielt halt niemand).
Wenn dann DLSS immer noch detaillierter ist, würde ich es auch nicht ganz glauben können, was da passiert :D

Was ich jetzt aber interessant finde ist, dass eine spiele-spezifische Anpassung der KI ja scheinbar nicht mehr unbedingt notwendig ist, sondern stattdessen auf allgemeine "Erfahrungswerte" zurückgegriffen werden kann.
Das kapier ich dann auch nicht so ganz, wie das so gut hinhauen soll.
Benutzeravatar
Levi 
Beiträge: 44873
Registriert: 18.03.2009 15:38
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Levi  »

Realistisches Moos sieht halt immer ähnlich aus, genau wie irgend welche metallene Oberflächen, oder irgend welche anderen Materialien. Da hast du viel Potenzial. Das geht eben soweit, dass du den Kram sehr wohl auch über die Trainingsauflösung hinaus jagen könntest und Bildverbesserung wahrnehmen könntest*. (zum beispiel bei weiter entfernten Elementen) Eine flache Textur direkt vor der Nase wird nicht profitieren, aber in den Raum hinein, warum nicht?


*) momentan machbare Performance mal außen vorgelassen.
Zuletzt geändert von Levi  am 25.09.2021 12:24, insgesamt 2-mal geändert.
forever NYAN~~ |||||||| Hihi
Bild
Benutzeravatar
Chibiterasu
Beiträge: 28696
Registriert: 20.08.2009 20:37
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Chibiterasu »

Du meinst, dass ein in 16K gerendertes Bild mit einem weit entfernten Baum im Hintergrund einen "weniger schönen/detaillierten" Baum als ein mit (auf 16K Material trainiertes) DLSS auf 16K hochskaliertes Bild liefern könnte?

Das geht dann ja eigentlich mehr schon in die Geschmacksrichtung als dass man sagen kann "objektiv mehr Details" oder?
Benutzeravatar
Levi 
Beiträge: 44873
Registriert: 18.03.2009 15:38
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Levi  »

Objektiv ist hier auch kein Thema. Was dazu gezeichnet wird, muss nicht zwingend der digitalen Realität entsprechen! (Deswegen kannst du soetwas auch nicht für den csi Bild Verbesserer benutzen. Der wird dir ein schönes Gesicht zeichnen... Das muss aber nicht zwingend das korrekte Gesicht sein.) Hier geht's immer um den "Eindruck".
Nichts desto trotz bekommst du halt mehr Details ins Bild, die den gesamt Eindruck verbessern. Und darum geht's halt. Es soll besser aussehen.

Vielleicht nochmal ein anderer Ansatz der Erklärung:
Die ki "erfindet" Details hinzu.

Noch ein Edit: genau, wie du es mit dem Baum beschrieben hast, mein ich das.
Zuletzt geändert von Levi  am 25.09.2021 12:39, insgesamt 3-mal geändert.
forever NYAN~~ |||||||| Hihi
Bild
Benutzeravatar
Chibiterasu
Beiträge: 28696
Registriert: 20.08.2009 20:37
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Chibiterasu »

Ja, so hab ich das verstanden - aber immer auf Basis des angelernten Materials. Wenn das dann noch über den Detailgrad des Quellmaterials für das Anlernen hinausgehen kann, bin ich durchaus überrascht. Spannend.
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von OchsvormBerg »

Chibiterasu hat geschrieben: 25.09.2021 12:28 Du meinst, dass ein in 16K gerendertes Bild mit einem weit entfernten Baum im Hintergrund einen "weniger schönen/detaillierten" Baum als ein mit (auf 16K Material trainiertes) DLSS auf 16K hochskaliertes Bild liefern könnte?

Das geht dann ja eigentlich mehr schon in die Geschmacksrichtung als dass man sagen kann "objektiv mehr Details" oder?
Nein.

Die vom Ki-Algorythmus antrainierten Bilder sind nativ 16k.

Sagen wir mal Du spielst in 1440p mit DLSS auf "Quality". Damit ist die native Renderauflösung 1080p, die dann mit DLSS auf 1440p per Ki-Algorythmus hochgerechnet wird. Das Ergebnis ist hierbei in vielen Fällen besser und teilweise detaillierter als natives 1440p und das v.A. mit eingebauter Kantenglättung (die man bei nativ 1440p ja separat aktivieren müsste und die zusätzliche Leistung kostet.). Obendrein hat man dabei noch einen ordentlichen Performancegewinn.

Die Qualität von echtem 16k kann man so natürlich nicht erreichen, aber es können teilweise Details dargestellt werden, die sonst in 1440p durchs Pixelraster fallen würden.
Benutzeravatar
Chibiterasu
Beiträge: 28696
Registriert: 20.08.2009 20:37
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Chibiterasu »

^^Den ersten Teil habe ich schon verstanden.

Es geht mir ja um deinen letzten Satz, wobei ein "dazuerfinden von Details der KI" wie Levi sagt, ja implizieren müsste, dass ein 16K DLSS Bild mit 16K Renderauflösung theoretisch noch detaillierter bzw. "schöner" sein könnte als ein normales 16K gerendertes Bild, einfach weil die KI quasi noch weiter optimiert.

* Immer davon ausgehend, dass die KI mit 16K Bildern trainiert wird (und nicht noch höher).
Zuletzt geändert von Chibiterasu am 25.09.2021 13:07, insgesamt 1-mal geändert.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Temeter  »

Die Sache, dir mir Zweifel bereitet, ist, dass es eben nur sehr begrenzt Muster erkennen kann. Da wird kein Bild von der KI gespeichert, die GPU kann keine Objekte erkennen, das wäre viel zu kompliziert und viel zu viel Speicher.

Effektiv kann eine GPU, nach meinem Verständnis, eigentlich nur vage Pixelmuster erkennen und je nach Wahrscheinlickeit ins Bild einrechnen. Und das macht bei er Technik auch Sinn, Mustererkennung ist exakt, wozu ein neurales Netzwerk gut ist. Aber da all das hier in Echtzeit ist und größere Muster extrem speicherintensiv wären, ist das eben auch sehr begrenzt.

Das mag technisch gesehen mehr Details sein, und gut aussehen, aber es kann nicht "korrekter" als ein natives Bild sein.
Zuletzt geändert von Temeter  am 25.09.2021 13:23, insgesamt 1-mal geändert.
chrische5
Beiträge: 1120
Registriert: 01.12.2011 14:38
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von chrische5 »

Hallo

Es ist beeindruckend, wie man sich gegen Erkenntnisse wehren kann. Einfach weil man es nicht versteht oder sich nicht vorstellen kann.

Christoph
Antworten