Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
Hiri
Beiträge: 1669
Registriert: 07.10.2011 13:26
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Hiri »

Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: 20.09.2021 15:06 Nun ja, da AMD bei der Rohleistung wieder rangekommen ist, muss nV mit Feature punkten, wie eben RTX oder DLSS.
Nvidia hat über 80% Marktanteile am PC.
Benutzeravatar
dx1
Beiträge: 8776
Registriert: 30.12.2006 13:39
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von dx1 »

Mainboards, Gehäuse und Logistik mitgerechnet!
#Konsolenlosmentalität
Refuse - Reduce - Reuse - Repair - Recycle - Rot!
If you can't do something smart, do something right.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Temeter  »

VaniKa hat geschrieben: 21.09.2021 22:18
Temeter  hat geschrieben: 21.09.2021 13:42Nvidia hat bereits mit den 20xx-Karten die Preise krass angezogen.
Das ist eine Fehlwahrnehmung, weil einfach nur auf die Zahl am Ende (960, 1060, 2060) geachtet wird. Bezogen auf 1080p entspricht die 2060 eigentlich eher einem -70er-Modell von früher. Die Funktion der früheren -60er- und -50er-Modelle nehmen die 1660 und 1650 ein. D.h. heute benötigt man vor allem ein stärkeres Modell als eine 2060 oder 3060, weil man die Auflösung von 1080p auf 1440p erhöht hat. Da ich bei 1080p mit 60 FPS bleibe, nutze ich daher heute eine 2060, anstatt wie früher auf ein -70er-Modell zu setzen. Den Aufpreis zahlen Leute also vor allem für eine höhere Auflösung und/oder höhere FPS. Wer bei 1080p und 60 FPS bleibt, zahlt nicht mehr als früher und kann die Detailregler wie gewohnt einstellen.
Jup, und da liegst du nicht falsch, die 2060 ist eine höhere klasse als die 1060. Die etwas irreführende Namensänderung war vermutlich dafür da, um von der Stagnation abzulenken; damit man zeigen konnte, "schau, die 2060 ist deutlich besser als die 1060".

Nur wenn du die 2060 mit einer 1070 vergleichst, dann hast du was, vielleicht 15% mehr fps, und 10% weniger Preis? Nach 4 Jahren ist das regelrecht erbärmlich, und mit dem Preisverfall der 1070 kriegst du vermutlich mehr fps/€ mit der Karte, als mit einer 2060 zu deren Release.
Naja, jedenfalls, wenn die Miner die Restbestände nicht aufgekauft hätten. Dass alleine hat dafür gesorgt, dass Nvidia damit durchgekommen ist.

Deswegen ist es auch gut, dass AMD endlich mal wieder eine vernünftige Architektur hat, um für ein bisschen Wettbewerb zu sorgen. Oder wäre es, wenn da nicht die GPU-Knappheit wär...
Zuletzt geändert von Temeter  am 22.09.2021 02:59, insgesamt 2-mal geändert.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Temeter  »

Irenicus hat geschrieben: 21.09.2021 20:57nein, eben nicht, das ist ja der clou an dlss zumindest ab 2.0, die "ki" sorgt dafür das es keinen nachteil gibt, die gleicht das bild für bild aus.^^
"Aber was ist das Geheimnis von DLSS 2.0? Woher weiß die KI anhand schlechter Grafik, wie ein Bild mit besserer Grafik auszusehen hat? Die Magie liegt im Deep Learning. Die KI ist wie ein neuronales Netz – also vom menschlichen Gehirn inspiriert – aufgebaut und wird mit einer Unmenge von Daten gefüttert. Es beginnt durch die Datenmenge Zusammenhänge zu erkennen, trifft Prognosen und verändert seine Berechnungen, wenn sich die Prognosen im Datenabgleich als falsch rausstellen.

Im Falle von DLSS 2.0 fütterte Nvidia das neuronale Netz mit Bildern von hoher und niedriger Auflösung. Die KI entdeckt mehr und mehr Zusammenhänge zwischen der niedrigen und hohen Auflösung und wird damit immer besser darin, die höhere Auflösung selbstständig abzuleiten. Das neuronale Netz vom DLSS 2.0 ist nach zehntausenden Bildern so gut trainiert, dass es aus der niedrigen Auflösung ihm unbekannter Bilder nun selbstständig eine höhere Auflösung berechnet, die vom tatsächlichen Bild kaum zu unterscheiden ist."
Selbst das Quote sagt "kaum zu unterscheiden", sprich trade-off. Und wie sehr das zu unterscheiden ist, dürfte doch arg subjektiv sein, keine technische Messung.

Ich bezweifle auch nicht, dass DLSS/DLAA eine tolle Technik ist, und ein ernstes Kaufargument (im Gegensatzu zu RT!). Aber man muss dafür nicht übertreiben. Natürlich geht Bildinformation verloren, und die "KI" wird auch nur ein Algorithmus sein, der den Verlust zu verbergen versucht.
Zuletzt geändert von Temeter  am 22.09.2021 03:05, insgesamt 2-mal geändert.
Benutzeravatar
Leon-x
Beiträge: 12245
Registriert: 04.02.2010 21:02
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Leon-x »

Wie mit jeder neuen Technik gibt es gute Implementierungen wie auch Schlechte.

Trifft auf Raytracing wie auch auf DLSS zu. Gleiche kann man Jahre davor bei anderen Techniken gesehen.

Wenn man manche Leute kennt die erst Dinge wie 4k, Freesync/G-Sync abtun und als unnötig einstufen und dann die gleichen Petsonen 2-3 Jahre später die Dinge selber anstreben weiß man doch schon wie der Hase läuft.^^

Natürlich kann neue Technik immer am Anfang teuer sein und vom Preis/Leistung kaum die goldene Mitte treffen. Sowas ist normale Entwicklung. Wem das Gebote nicht passt wartet halt. Deswegen muss man neue Techniken nicht gleich als nutzlos wirken lassen. Nichts kommt perfekt auf den Markt. Muss immer einen Anfang in Hardware geben damit Software darauf aufbaut und effizienter wird.

So wie Nvidia RT und DLSS frühzeitig einführt hat AMD z.B. sehr früh auf DX12/Vulkan Features gesetzt. Wie lange hat es gedauert bis die vernünftig liefen? Teilweise 3-4 Jahre dass man mal keine Stocken oder Abstürze gegenüber DX11 hatte.
Gegenpart Nvida mit Maxwell bis Pascal ja kaum Vorteile aus DX12/Vulkan zog und erst mit Turing da auch nachlegen. Was aber bei noch sehr häufigen Verbreitung von DX11 kein kaufentscheidender Nachteil war.

AMD ist also teilweise auch seiner Zeit voraus wo Karten erst später etwas besser altern. Nur kaufen manche Leute Hardware um 2-3 Jahre gut zu fahren und nicht erst wenn die ihr Potenzial erst viel später zeigen.

Markt braucht Early-Adaptor genauso wie die Leute die bei neuen Kram Geduld beweisen.
Firmen werden aber immer versuchen sich voneinander frühzeitig abzuheben sofern Budget und Entwicklungsabteilung zulässt.
-PC
-Playstation 5
-Nintendo Switch
-Xbox Series X
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von OchsvormBerg »

Temeter  hat geschrieben: 21.09.2021 18:58 Das wiederum kann ich in der Tat nicht völlig beurteilen, aber ich glaube es auch einfach nicht. Du verlierst nicht >30% der Pixel und hast am Ende mehr Details, das funktioniert allein logisch nicht. DLSS mag eine tolle Technik sein, aber Magie ist es nicht. Da ist ein Trade-off.
Und genau da liegt Dein Denkfehler, weil Du auch überhaupt nicht verstanden hast was DLSS macht und es auch nie selbst in Aktion gesehen hast. Wenn die Technik einfach nur skalieren würde, wäre das richtig, was Du da sagst. Die Sache ist aber die, dass durch den KI-Algorythmus Details hinzu gefügt werden. Dadurch sind teilweise sogar mehr Details vorhanden als es beim nativ berechneten Bild der Fall wäre. Das funktioniert je nach Qualität der Implementierung und Titel unterschiedlich gut und ist v.A. von der Auflösung abhängig. Je höher, desto besser. Gerade bei 4K kann DLSS Wunder wirken, aber auch in WQHD bringt es eine Menge.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von johndoe711686 »

VaniKa hat geschrieben: 21.09.2021 22:18 Da ich bei 1080p mit 60 FPS bleibe, nutze ich daher heute eine 2060, anstatt wie früher auf ein -70er-Modell zu setzen.
"Früher" reichte aber auch die 1060 für FHD@60. Ich hatte die, und erst die letzten 2 Jahre ging das nicht mehr. Die 60er waren eigentlich die FHD Karten. die 1070 war schon bei Release eigentlich zu stark dafür.

Aber es stimmt, die 2060 wurde auf das Preisniveau der 1070 angehoben.
Benutzeravatar
Levi 
Beiträge: 44873
Registriert: 18.03.2009 15:38
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Levi  »

Temeter  hat geschrieben: 21.09.2021 18:58
Das wiederum kann ich in der Tat nicht völlig beurteilen, aber ich glaube es auch einfach nicht. Du verlierst nicht >30% der Pixel und hast am Ende mehr Details, das funktioniert allein logisch nicht. DLSS mag eine tolle Technik sein, aber Magie ist es nicht. Da ist ein Trade-off.
Fun Fact: vor KI hätte ich dir sofort Recht gegeben... Problem ist aber: genau das tut DLSS. Und das nicht mal schlecht.

Gaaaanz vereinfacht kannst du dir vorstellen, das dlss basierend auf den vorliegenden niedrig aufgelösten Bild ein neues höher aufgelöstes zeichnet. Für diesen Zweck wird eine dafür trainierte "KI" benutzt, welche wie ein Zeichner, aus Erfahrung heraus Details dazu erfindet.
Der Gag dabei: die Details müssen nicht 100 Prozentig korrekt sein. Aber wenn es gut und sauber aussieht, ist das egal.
forever NYAN~~ |||||||| Hihi
Bild
yopparai
Beiträge: 19596
Registriert: 02.03.2014 09:49
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von yopparai »

Ich mein, um zu sehen, was es bewirkt, kann man sich inzwischen ja gefühlt 200.000 Youtube-Videos angucken. Das ist definitiv nicht nur ein bisschen schärferes Upscaling, da kommen Details rein, die es im Quell-Bild schlicht nicht gibt. Hat nicht *nur* Vorteile in allen Punkten, ist aber schon eine verdammt clevere Technik.
Benutzeravatar
Irenicus
Beiträge: 391
Registriert: 25.12.2011 23:28
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Irenicus »

Temeter  hat geschrieben: 22.09.2021 03:02 Selbst das Quote sagt "kaum zu unterscheiden", sprich trade-off. Und wie sehr das zu unterscheiden ist, dürfte doch arg subjektiv sein, keine technische Messung.
besser subjektiv als spekulativ wie bei deiner "argumentation". :mrgreen:

und klar wird gemessen, wie es bereits im zitat steht gibts einen datenabgleich, nur warum nvidia diesen nicht veröffentlicht sollte auch klar sein, wären ja blöd wenn sie das täten.^^

und der beste vergleich ist immer noch zu dlss 1.0, denn da gabs tatsächlich noch einen nennenswerten, wie du es nennst, trade-off.^^

btw es gibt wohl eine mod für cyberpunk 2077 welche anscheinend dlss 2.2 in dem spiel durch eine dll-datei ermöglicht, hat die jemand schon ausprobiert?^^

https://www.nexusmods.com/cyberpunk2077/mods/3037
Bild
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von johndoe711686 »

Weiß nicht, ob das simple tauschen einer DLL da so viel bringt. Eine gewisse Anpassung des Spiels muss ja trotzdem vorhanden sein.
yopparai
Beiträge: 19596
Registriert: 02.03.2014 09:49
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von yopparai »

Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: 22.09.2021 13:55 Weiß nicht, ob das simple tauschen einer DLL da so viel bringt. Eine gewisse Anpassung des Spiels muss ja trotzdem vorhanden sein.
Wenn der entsprechende Code in genau der DLL steckt…
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von johndoe711686 »

yopparai hat geschrieben: 22.09.2021 14:00
Ryan2k6(Danke für 20 Jahre 4p) hat geschrieben: 22.09.2021 13:55 Weiß nicht, ob das simple tauschen einer DLL da so viel bringt. Eine gewisse Anpassung des Spiels muss ja trotzdem vorhanden sein.
Wenn der entsprechende Code in genau der DLL steckt…
Es sieht nach einer nvidia DLL aus, würde schon erwarten dass CDP die im Spiel verwendet und hier Anpassungen stattfinden müssen um 2.2 komplett auszunutzen. Ansonsten ist es 2.0 mit anderer DLL.

Aber kann auch sein, stecke da nicht so drin.
yopparai
Beiträge: 19596
Registriert: 02.03.2014 09:49
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von yopparai »

War für mich jetzt auch nur ins Blaue geschossen, von daher…
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Nvidia DLAA (Deep Learning Anti-Aliasing) in Entwicklung

Beitrag von Temeter  »

Irenicus hat geschrieben: 22.09.2021 13:33besser subjektiv als spekulativ wie bei deiner "argumentation". :mrgreen:
Nö, ich rede Fakten, nicht Spekulation.

Alle Antworten sind immer nur "die KI macht irgendwas". Das ist einfach nur Marketing-Geblubber, nie gibts Details, wie das ganze eigentlich funktioniert. Euch ist schon klar, dass "KI" ein super beliebter Werbebegriff ist, aber gleichzeitig so vage, dass es eigentlich nichts bedeutet? Genauso wie du eine simple Matrize machen kannst, und dann nennst du das ein neuronales Netzwerk.
Antworten