Was soll das jetzt?
Ich hab mir den Graphen vom Text losgelöst angesehen und hab durch den dort angezeigten Leistungszuwachs vorschnell geschlussfolgert. That's it
Hab den Fehler doch eingestanden!?
Moderatoren: Moderatoren, Redakteure
Was soll das jetzt?
NVidia nennt es selbst ein Anti Aliasing verfahren und das Verfahren is bekannt, auch wie es funktioniert, da NVidia schon länger daran arbeitet und den einen oder anderen Artikel veröffentlicht hat.winkekatze hat geschrieben: ↑23.08.2018 18:25 Noch weiß keiner was genau DLSS ist und wie es funktioniert.
Entwickler die es in ihre Spiele einbauen nennen es Anti AliasingNVIDIA researchers used AI to tackle a problem in computer game rendering known as anti-aliasing. Anti-aliasing is another way to reduce noise — in this case, the jagged edges in the partially rendered images. Called “jaggies,” these are staircase-like lines that appear instead of smooth lines. (See left inset in image below).
NVIDIA researchers Marco Salvi and Anjul Patney trained a neural network to recognize these artifacts and replace those pixels with smooth anti-aliased pixels. The AI-based technology produces sharper images than existing algorithms.
In der Footnote steht es ebenfalls nochmal“DLSS delivers a stunning picture by smoothing the edges of rendered objects like never before. For MMORPG, applying artificial intelligence to anti-aliasing results in a much-improved gaming experience — it’s a brilliant way to use GeForce RTX’s Tensor Cores.” — Kris Guo, CEO, Seasun and senior vice president of Kingsoft
Es ist kein "image reconstruction" gedöns. Es ist eine neue Form von AA.applying AI to anti-aliasing results improving gaming
Ich würde sagen, das es beides zur gleichen Zeit ist. Würde es einfach nur die Pixel weich machen, dann wäre es nichts weiter als ein Weichzeichner und würde ein Ergebnis produzieren, womit wir wohl kaum zufrieden wären. Daher muss dieser Algorithmus abschätzen, wie das Bild höchstwahrscheinlich ausgesehen hätte, wäre es auf einer höheren Auflösung gerendert worden. Und das ist im Grunde die Rekonstruktion von etwas, das nicht da ist.
Danke. Aber das SuperSampling findet nicht lokal statt, sondern ist auf den Supercomputer ausgelagert. Das Bild wird dann anhand der aus dem Deep-Learning Prozess gewonnenen Daten diesem Supergesampleten Bild angenähert. Ob dabei Lokal ein 4K Bild verwendet wird, oder ein niedriger aufgelöstes (aus Performancegründen) ist eben noch nicht klar, bzw. ist die Formulierung in diesem Artikel hier zu schwammig.Doc Angelo hat geschrieben: ↑23.08.2018 19:28 DLSS und Checkerboard sind sich im Grunde ähnlich, da beide Verfahren etwas berechnen/abschätzen sollen, was nicht da ist. Beim normalen Checkerboard Rendering werden fehlende Pixel hinzuberechnet um das Bild zu vervollständigen. Auch Checkerboard Rendering kann als Antialiasing benutzt werden und nennt sich dann "Temporal Filtering".
Was jetzt genau beim DLAA oder DLSS passiert, weiß man scheinbar noch nicht so genau. Ob es überhaupt einen konkreten Unterschied zwischen DLAA und DLSS gibt, oder ob es nur ein anderes Wort für die gleiche Sache ist, darüber hab ich nichts finden können. "Super Sampling" weist auf jeden Fall darauf hin, das erst ein höher aufgelöstes Bild berechnet wird (in diesem Fall aus dem Original-Bild, woraus die Tensor-Cores ein größeres Bild extrapolieren, also praktisch hochskalieren), und das wird dann auf die Zielauflösung runterskaliert.
Mal so nebenbei: Das Bild aus dem Keynote von Nvidia, wo DLSS gezeigt wird: Sieht TAA wirklich dermaßen scheiße aus, oder haben die da "ein bisschen" übertrieben? https://i.imgur.com/04u9zga.jpg
Quelle: https://developer.nvidia.com/rtx/ngx
DLSS requires a training set of full resolution frames of the aliased images that use one sample per pixel to act as a baseline for training. Another full resolution set of frames with at least 64 samples per pixel acts as the reference that DLSS aims to achieve. At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information. Training also requires a variety of scenes from the game in order to generate the best results.
Ich hab gerade nochmal die Stelle der Keynote von der das Bild hier ist geschaut. Es ist Extrapolierung und damit Generierung von zusätzlichen Pixeln. Das sind die Worte vom Nvidia-Typ selbst.Doc Angelo hat geschrieben: ↑23.08.2018 19:28 Mal so nebenbei: Das Bild aus dem Keynote von Nvidia, wo DLSS gezeigt wird: Sieht TAA wirklich dermaßen scheiße aus, oder haben die da "ein bisschen" übertrieben? https://i.imgur.com/04u9zga.jpg
Das Training findet auf dem Super-Computer statt. Ist schon ganz interessant. Sie haben ein Bild in originaler Auflösung und geben dem zu trainierenden System eine kleiner aufgelöste Kopie, woraus es dann die originale Auflösung raten soll. Das Ergebnis wird verglichen, und wenn das System nicht gut genug gearbeitet hat, bekommt es eine auf die Finger und muss nochmal ran. Und das dann ein paar Milliarden mal. Und das mit so vielen Bildern, bis das System einigermaßen mit "allen" Bildern zurecht kommt. Spiele-Entwickler können auch ein eigenes Training machen, wobei sie dann natürlich nur Bilder aus dem eigenen Spiel nehmen werden, wodurch die potentielle Qualität der Schätzungen besser werden sollte.winkekatze hat geschrieben: ↑23.08.2018 19:50 Danke. Aber das SuperSampling findet nicht lokal statt, sondern ist auf den Supercomputer ausgelagert. Das Bild wird dann anhand der aus dem Deep-Learning Prozess gewonnenen Daten diesem Supergesampleten Bild angenähert. Ob dabei Lokal ein 4K Bild verwendet wird, oder ein niedriger aufgelöstes (aus Performancegründen) ist eben noch nicht klar, bzw. ist die Formulierung in diesem Artikel hier zu schwammig.
Zwischen 60fps auf einem 120Hz-Monitor und 60fps auf einem 60Hz Monitor siehst du keinen Unterschied. Due siehst in beiden Fällen nur 60 Bilder pro Sekunde. Da LCDs nicht flimmern und zwischen zwei Refreshes das Bild nicht resetten müssen, also das Bild einmal kurz komplett weiß oder schwarz werden müsste, bevor das neue eigentliche Bild angezeigt werden kann, kannst du gar nicht merken, dass der 120Hz Monitor jeden Frame doppelt anzeigt.
Nicht ganz. Das LCD-Monitore überhaupt eine fixe Refreshrate haben, ist technisch gesehen eigentlich sowieso Unsinn. Das ist eher der Abwärtskompatibilität zu den damaligen Grafikkarten und CRT-Bildschirmen geschuldet.
In den Kommentaren zum Video wurde eine Antwort von Nvidia gepostet, die den Fehler reproduzieren konnten. Nach einem Treiber-Update war das Flackern verschwunden. Vielleicht klappt das ja auch bei dir?Flojoe hat geschrieben: ↑24.08.2018 18:42 Was mir bei Gsync nicht gefällt ist das flackern des Bildschirms. Im ersten Moment dachte ich mein Monitor wäre defekt. Kurze Google Suche ergab das das bei gsync auftreten kann. Sehr doof und die Sache dann nicht wert. Also verzichte ich drauf.
https://youtu.be/nXhnIdywbRw
Aha! Das werd ich dann mal probieren.Doc Angelo hat geschrieben: ↑24.08.2018 18:48In den Kommentaren zum Video wurde eine Antwort von Nvidia gepostet, die den Fehler reproduzieren konnten. Nach einem Treiber-Update war das Flackern verschwunden. Vielleicht klappt das ja auch bei dir?Flojoe hat geschrieben: ↑24.08.2018 18:42 Was mir bei Gsync nicht gefällt ist das flackern des Bildschirms. Im ersten Moment dachte ich mein Monitor wäre defekt. Kurze Google Suche ergab das das bei gsync auftreten kann. Sehr doof und die Sache dann nicht wert. Also verzichte ich drauf.
https://youtu.be/nXhnIdywbRw
Du hast meinen Beitrag offensichtlich nicht komplett gelesen. Ich habe nicht gesagt es ist schöner, sondern angenehmer. Die flüssigere Eingabe bleibt. Und zum Thema flimmern habe ich auch meinen Senf dazu gegeben. Ich arbeite seit 17 Jahren im IT Support und habe etliche dolle LCDs gehabt die Flimmern. Auch die arbeiten nicht umsonst mit Frequenzen.Liesel Weppen hat geschrieben: ↑24.08.2018 13:58Zwischen 60fps auf einem 120Hz-Monitor und 60fps auf einem 60Hz Monitor siehst du keinen Unterschied. Due siehst in beiden Fällen nur 60 Bilder pro Sekunde. Da LCDs nicht flimmern und zwischen zwei Refreshes das Bild nicht resetten müssen, also das Bild einmal kurz komplett weiß oder schwarz werden müsste, bevor das neue eigentliche Bild angezeigt werden kann, kannst du gar nicht merken, dass der 120Hz Monitor jeden Frame doppelt anzeigt.
Was anderes wäre es, wenn der 120Hz Monitor die 60fps interpoliert und somit praktisch auch 120fps daraus macht. Das würde allerdings Inputlag verursachen und deswegen will man genau sowas bei interaktiven Inhalten eben genau nicht haben.
Nicht ganz. Das LCD-Monitore überhaupt eine fixe Refreshrate haben, ist technisch gesehen eigentlich sowieso Unsinn. Das ist eher der Abwärtskompatibilität zu den damaligen Grafikkarten und CRT-Bildschirmen geschuldet.
Normale Monitore haben eine fixe Frequenz und pollen die Bilder von der Grafikkarte. Dadurch entsteht natürlich Tearing, wenn man das nicht synct. Mit V-Sync passt sich die Grafikkarte halt der Wiederholfrequenz des Monitors an um das zu vermeiden. (Was mMn ganz praktischerweise aber auch die Rechenlast auf der Grafikkarte begrenzt. Also ich zumindest brauche keine GPU die auf 100% 300fps berechnet, wenn der Monitor sowieso nur 60fps anzeigen kann. Dann reichts eben auch, wenn die GPU unter nur 20% Last und damit deutlich weniger Abwärme und deutlich weniger Stromverbrauch nur 60fps berechnet).
Bei G-Sync übernimmt komplett die Grafikkarte die "Wiederholratensteuerung" des Monitors und sagt sinnvollerweise, wenn ein Frame fertig dem Monitor dass er genau dann auch einen Refresh machen soll, die Grafikkarte pusht also das Bild zum Monitor. Das ist mMn eigentlich die offensichtlichste und logischste Art und Weise wie man ein LC-Display überhaupt ansteuern sollte. Dummerweise hat NVidia da ein Patent drauf gekriegt und einen wirklich offenen Standard der das genau so macht, gibts deswegen auch nicht.
Bei FreeSync(1) dagegen pusht die Grafikkarte die Frames immer noch nicht, sie kann aber den Monitor "bitten" seine Wiederholfrequenz anzupassen. Also wenn die Grafikkarte über ein paar Frames hinweg nur 48fps schafft, dann sagt sie dem Monitor er solle seine Wiederholfrequenz doch bitte auf passende 48Hz umstellen. Da aber eine Grafikkarte auch nicht hellsehen kann und daher nicht wissen kann, wie lange sie für den nächsten Frame brauchen wird, ist damit keine framegenaue Synchronisation möglich. Im Best-Case hinkt der Monitor bei jeder Bildwiederholratenänderung einen Frame hinterher. Bei dieser Technik ist es also immernoch nötig, dass die GPU eine möglichst stabile Framerate liefern kann, nur wo genau diese Framerate liegt, ist damit egal.
Mit FreeSync 2 wurde da nochmal einiges geändert, was dieses Problem abschwächen soll, oder sogar beseitigen, ohne NVidias Patente zu verletzen.
Ich denke das alle hier zustimmen, das es möglich ist, einen LCD falsch zu betreiben, so das er kein angenehmes Bild liefert. Es ist allerdings technisch einfach unmöglich, das ein LCD ein "Flimmern" aufweist, wie man es bei CRTs meint. Es geht einfach nicht, selbst wenn man wollte. Nur wenn ein Hardware-Schaden der Hintergrundbeleuchtung vorliegt könnte ein ähnliches Flimmern entstehen, welches dann aber nicht mit der Bildwiederholrate der Grafikkarte zusammen hängt.Arkatrex hat geschrieben: ↑25.08.2018 08:32Ich arbeite seit 17 Jahren im IT Support und habe etliche dolle LCDs gehabt die Flimmern. Auch die arbeiten nicht umsonst mit Frequenzen. Auch dir gönne ich das Erlebnis einfach Mal auf 59 Hz umzuschalten und damit ein paar Stunden zu arbeiten oder spielen.