NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
KalkGehirn
Beiträge: 1843
Registriert: 26.10.2014 22:05
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von KalkGehirn »

bloub hat geschrieben: 23.08.2018 18:17 dann zeig doch mal den graphen, ich bin mir sicher das da nichts von checkerboard steht.
Was soll das jetzt?
Ich hab mir den Graphen vom Text losgelöst angesehen und hab durch den dort angezeigten Leistungszuwachs vorschnell geschlussfolgert. That's it
Hab den Fehler doch eingestanden!?
Benutzeravatar
Lumilicious
Beiträge: 4817
Registriert: 05.07.2010 05:30
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Lumilicious »

winkekatze hat geschrieben: 23.08.2018 18:25 Noch weiß keiner was genau DLSS ist und wie es funktioniert.
NVidia nennt es selbst ein Anti Aliasing verfahren und das Verfahren is bekannt, auch wie es funktioniert, da NVidia schon länger daran arbeitet und den einen oder anderen Artikel veröffentlicht hat.
https://blogs.nvidia.com/blog/2017/07/3 ... -graphics/
NVIDIA researchers used AI to tackle a problem in computer game rendering known as anti-aliasing. Anti-aliasing is another way to reduce noise — in this case, the jagged edges in the partially rendered images. Called “jaggies,” these are staircase-like lines that appear instead of smooth lines. (See left inset in image below).

NVIDIA researchers Marco Salvi and Anjul Patney trained a neural network to recognize these artifacts and replace those pixels with smooth anti-aliased pixels. The AI-based technology produces sharper images than existing algorithms.
Entwickler die es in ihre Spiele einbauen nennen es Anti Aliasing
https://nvidianews.nvidia.com/news/nvid ... ster-games
“DLSS delivers a stunning picture by smoothing the edges of rendered objects like never before. For MMORPG, applying artificial intelligence to anti-aliasing results in a much-improved gaming experience — it’s a brilliant way to use GeForce RTX’s Tensor Cores.” — Kris Guo, CEO, Seasun and senior vice president of Kingsoft
In der Footnote steht es ebenfalls nochmal
applying AI to anti-aliasing results improving gaming
Es ist kein "image reconstruction" gedöns. Es ist eine neue Form von AA.

Der Infiltrator Demo Test hat auch zum Vergleich genau das gezeigt: Einmal mit TAA, wo ein Schnitt von 38fps erreicht wurde und einmal mit DLSS welches stabile 60fps lieferte (dank der Tensor Cores die hier die komplette Arbeit abnehmen)... beide Werte in nativen 4k - da wurde nix hochskaliert! Der Performance Gewinn wird im Balkendiagramm über mehrere Spiele bestätigt.

Das was wir nicht wissen ist, wie gut das in nem richtigen Spiel wirklich aussieht, da die Infiltrator Demo quasi ein Film mit den immer gleichen Kameraperspektiven is, ist das für DLSS die perfekte Grundlage um super zu funktionieren. Wie das aber in ner voll interaktiven Umgebung aussieht wissen wir (leider) nicht.
Doc Angelo
Beiträge: 5158
Registriert: 09.10.2006 15:52
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Doc Angelo »

DLSS und Checkerboard sind sich im Grunde ähnlich, da beide Verfahren etwas berechnen/abschätzen sollen, was nicht da ist. Beim normalen Checkerboard Rendering werden fehlende Pixel hinzuberechnet um das Bild zu vervollständigen. Auch Checkerboard Rendering kann als Antialiasing benutzt werden und nennt sich dann "Temporal Filtering".

Was jetzt genau beim DLAA oder DLSS passiert, weiß man scheinbar noch nicht so genau. Ob es überhaupt einen konkreten Unterschied zwischen DLAA und DLSS gibt, oder ob es nur ein anderes Wort für die gleiche Sache ist, darüber hab ich nichts finden können. "Super Sampling" weist auf jeden Fall darauf hin, das erst ein höher aufgelöstes Bild berechnet wird (in diesem Fall aus dem Original-Bild, woraus die Tensor-Cores ein größeres Bild extrapolieren, also praktisch hochskalieren), und das wird dann auf die Zielauflösung runterskaliert.

Mal so nebenbei: Das Bild aus dem Keynote von Nvidia, wo DLSS gezeigt wird: Sieht TAA wirklich dermaßen scheiße aus, oder haben die da "ein bisschen" übertrieben? https://i.imgur.com/04u9zga.jpg
Doc Angelo
Beiträge: 5158
Registriert: 09.10.2006 15:52
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Doc Angelo »

Kannachu hat geschrieben: 23.08.2018 19:21 Es ist kein "image reconstruction" gedöns. Es ist eine neue Form von AA.
Ich würde sagen, das es beides zur gleichen Zeit ist. Würde es einfach nur die Pixel weich machen, dann wäre es nichts weiter als ein Weichzeichner und würde ein Ergebnis produzieren, womit wir wohl kaum zufrieden wären. Daher muss dieser Algorithmus abschätzen, wie das Bild höchstwahrscheinlich ausgesehen hätte, wäre es auf einer höheren Auflösung gerendert worden. Und das ist im Grunde die Rekonstruktion von etwas, das nicht da ist.
Benutzeravatar
winkekatze
Beiträge: 2334
Registriert: 26.12.2008 15:02
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von winkekatze »

Doc Angelo hat geschrieben: 23.08.2018 19:28 DLSS und Checkerboard sind sich im Grunde ähnlich, da beide Verfahren etwas berechnen/abschätzen sollen, was nicht da ist. Beim normalen Checkerboard Rendering werden fehlende Pixel hinzuberechnet um das Bild zu vervollständigen. Auch Checkerboard Rendering kann als Antialiasing benutzt werden und nennt sich dann "Temporal Filtering".

Was jetzt genau beim DLAA oder DLSS passiert, weiß man scheinbar noch nicht so genau. Ob es überhaupt einen konkreten Unterschied zwischen DLAA und DLSS gibt, oder ob es nur ein anderes Wort für die gleiche Sache ist, darüber hab ich nichts finden können. "Super Sampling" weist auf jeden Fall darauf hin, das erst ein höher aufgelöstes Bild berechnet wird (in diesem Fall aus dem Original-Bild, woraus die Tensor-Cores ein größeres Bild extrapolieren, also praktisch hochskalieren), und das wird dann auf die Zielauflösung runterskaliert.

Mal so nebenbei: Das Bild aus dem Keynote von Nvidia, wo DLSS gezeigt wird: Sieht TAA wirklich dermaßen scheiße aus, oder haben die da "ein bisschen" übertrieben? https://i.imgur.com/04u9zga.jpg
Danke. Aber das SuperSampling findet nicht lokal statt, sondern ist auf den Supercomputer ausgelagert. Das Bild wird dann anhand der aus dem Deep-Learning Prozess gewonnenen Daten diesem Supergesampleten Bild angenähert. Ob dabei Lokal ein 4K Bild verwendet wird, oder ein niedriger aufgelöstes (aus Performancegründen) ist eben noch nicht klar, bzw. ist die Formulierung in diesem Artikel hier zu schwammig.

DLSS requires a training set of full resolution frames of the aliased images that use one sample per pixel to act as a baseline for training. Another full resolution set of frames with at least 64 samples per pixel acts as the reference that DLSS aims to achieve. At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information. Training also requires a variety of scenes from the game in order to generate the best results.
Quelle: https://developer.nvidia.com/rtx/ngx
Doc Angelo
Beiträge: 5158
Registriert: 09.10.2006 15:52
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Doc Angelo »

Doc Angelo hat geschrieben: 23.08.2018 19:28 Mal so nebenbei: Das Bild aus dem Keynote von Nvidia, wo DLSS gezeigt wird: Sieht TAA wirklich dermaßen scheiße aus, oder haben die da "ein bisschen" übertrieben? https://i.imgur.com/04u9zga.jpg
Ich hab gerade nochmal die Stelle der Keynote von der das Bild hier ist geschaut. Es ist Extrapolierung und damit Generierung von zusätzlichen Pixeln. Das sind die Worte vom Nvidia-Typ selbst.
Benutzeravatar
manu!
Beiträge: 2361
Registriert: 11.11.2004 14:31
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von manu! »

Ach du dickes Ei....zwei entschuldigen sich für teweilweise übereifrige Aussagen.Danke dafür.Also wirklich,das freut mich.Ich kann mich nicht an so etwas erinnern.

Ich hatte irgendwo gelesen,dass die Kantenglättung weniger als MSAA oder dergleichen verbrauchen soll aber doch etwas mehr als 0%
Allerdings soll sie auch nicht so schön sein.Hoffe net wieder so en Rotz wie TXAA,das is echt für die Füße.Auf allen Auflösungen.
Doc Angelo
Beiträge: 5158
Registriert: 09.10.2006 15:52
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Doc Angelo »

winkekatze hat geschrieben: 23.08.2018 19:50 Danke. Aber das SuperSampling findet nicht lokal statt, sondern ist auf den Supercomputer ausgelagert. Das Bild wird dann anhand der aus dem Deep-Learning Prozess gewonnenen Daten diesem Supergesampleten Bild angenähert. Ob dabei Lokal ein 4K Bild verwendet wird, oder ein niedriger aufgelöstes (aus Performancegründen) ist eben noch nicht klar, bzw. ist die Formulierung in diesem Artikel hier zu schwammig.
Das Training findet auf dem Super-Computer statt. Ist schon ganz interessant. Sie haben ein Bild in originaler Auflösung und geben dem zu trainierenden System eine kleiner aufgelöste Kopie, woraus es dann die originale Auflösung raten soll. Das Ergebnis wird verglichen, und wenn das System nicht gut genug gearbeitet hat, bekommt es eine auf die Finger und muss nochmal ran. Und das dann ein paar Milliarden mal. Und das mit so vielen Bildern, bis das System einigermaßen mit "allen" Bildern zurecht kommt. Spiele-Entwickler können auch ein eigenes Training machen, wobei sie dann natürlich nur Bilder aus dem eigenen Spiel nehmen werden, wodurch die potentielle Qualität der Schätzungen besser werden sollte.

Die Anwendung der trainierten Software, also der Vorgang des Super-Samplings/extrapolierens/hochskalierens, findet auf der lokalen Hardware statt. Wie ich gelesen habe, sind die Trainings-Daten nur ein paar Megabyte groß und werden von Nvidias zusätzlicher Software "GeForce Experience" auf die Karte übertragen.

...was übrigens bedeutet, das man sich ein Nvidia-Konto zulegen muss, um diese neue Form von Bild-Extrapolation nutzen zu können. :Häschen: An dieser Stelle ein großes und dickes "Fuck you" an Nvidia für die Idee, Grafikkarten-Funktionen an ein Internet-Konto zu binden.
johndoe1238056
Beiträge: 27980
Registriert: 10.08.2011 17:57
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von johndoe1238056 »

Na endlich, ze power of ze cloud. :Blauesauge:
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Liesel Weppen »

Arkatrex hat geschrieben: 22.08.2018 15:28 Edit: Was es immer noch angenehmer macht mit 60 FPS auf einem 120Hz Monitor zu spielen als mit 60FPS auf einem 60Hz Monitor.
Zwischen 60fps auf einem 120Hz-Monitor und 60fps auf einem 60Hz Monitor siehst du keinen Unterschied. Due siehst in beiden Fällen nur 60 Bilder pro Sekunde. Da LCDs nicht flimmern und zwischen zwei Refreshes das Bild nicht resetten müssen, also das Bild einmal kurz komplett weiß oder schwarz werden müsste, bevor das neue eigentliche Bild angezeigt werden kann, kannst du gar nicht merken, dass der 120Hz Monitor jeden Frame doppelt anzeigt.
Was anderes wäre es, wenn der 120Hz Monitor die 60fps interpoliert und somit praktisch auch 120fps daraus macht. Das würde allerdings Inputlag verursachen und deswegen will man genau sowas bei interaktiven Inhalten eben genau nicht haben.
Leon-x hat geschrieben: 22.08.2018 18:43 Freesync und G-Sync sagt quasi die Grafikkarte dem Monitor welche Bilder sie gerade ausspuckt und der passt sich kn der Range daran an. Dadurch verhindert man Tearing und der Input-Lag sinkt etwas.
Nicht ganz. Das LCD-Monitore überhaupt eine fixe Refreshrate haben, ist technisch gesehen eigentlich sowieso Unsinn. Das ist eher der Abwärtskompatibilität zu den damaligen Grafikkarten und CRT-Bildschirmen geschuldet.
Normale Monitore haben eine fixe Frequenz und pollen die Bilder von der Grafikkarte. Dadurch entsteht natürlich Tearing, wenn man das nicht synct. Mit V-Sync passt sich die Grafikkarte halt der Wiederholfrequenz des Monitors an um das zu vermeiden. (Was mMn ganz praktischerweise aber auch die Rechenlast auf der Grafikkarte begrenzt. Also ich zumindest brauche keine GPU die auf 100% 300fps berechnet, wenn der Monitor sowieso nur 60fps anzeigen kann. Dann reichts eben auch, wenn die GPU unter nur 20% Last und damit deutlich weniger Abwärme und deutlich weniger Stromverbrauch nur 60fps berechnet).

Bei G-Sync übernimmt komplett die Grafikkarte die "Wiederholratensteuerung" des Monitors und sagt sinnvollerweise, wenn ein Frame fertig dem Monitor dass er genau dann auch einen Refresh machen soll, die Grafikkarte pusht also das Bild zum Monitor. Das ist mMn eigentlich die offensichtlichste und logischste Art und Weise wie man ein LC-Display überhaupt ansteuern sollte. Dummerweise hat NVidia da ein Patent drauf gekriegt und einen wirklich offenen Standard der das genau so macht, gibts deswegen auch nicht.

Bei FreeSync(1) dagegen pusht die Grafikkarte die Frames immer noch nicht, sie kann aber den Monitor "bitten" seine Wiederholfrequenz anzupassen. Also wenn die Grafikkarte über ein paar Frames hinweg nur 48fps schafft, dann sagt sie dem Monitor er solle seine Wiederholfrequenz doch bitte auf passende 48Hz umstellen. Da aber eine Grafikkarte auch nicht hellsehen kann und daher nicht wissen kann, wie lange sie für den nächsten Frame brauchen wird, ist damit keine framegenaue Synchronisation möglich. Im Best-Case hinkt der Monitor bei jeder Bildwiederholratenänderung einen Frame hinterher. Bei dieser Technik ist es also immernoch nötig, dass die GPU eine möglichst stabile Framerate liefern kann, nur wo genau diese Framerate liegt, ist damit egal.
Mit FreeSync 2 wurde da nochmal einiges geändert, was dieses Problem abschwächen soll, oder sogar beseitigen, ohne NVidias Patente zu verletzen.
Flojoe
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Flojoe »

Was mir bei Gsync nicht gefällt ist das flackern des Bildschirms. Im ersten Moment dachte ich mein Monitor wäre defekt. Kurze Google Suche ergab das das bei gsync auftreten kann. Sehr doof und die Sache dann nicht wert. Also verzichte ich drauf.

https://youtu.be/nXhnIdywbRw
Doc Angelo
Beiträge: 5158
Registriert: 09.10.2006 15:52
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Doc Angelo »

Flojoe hat geschrieben: 24.08.2018 18:42 Was mir bei Gsync nicht gefällt ist das flackern des Bildschirms. Im ersten Moment dachte ich mein Monitor wäre defekt. Kurze Google Suche ergab das das bei gsync auftreten kann. Sehr doof und die Sache dann nicht wert. Also verzichte ich drauf.

https://youtu.be/nXhnIdywbRw
In den Kommentaren zum Video wurde eine Antwort von Nvidia gepostet, die den Fehler reproduzieren konnten. Nach einem Treiber-Update war das Flackern verschwunden. Vielleicht klappt das ja auch bei dir?
Flojoe
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Flojoe »

Doc Angelo hat geschrieben: 24.08.2018 18:48
Flojoe hat geschrieben: 24.08.2018 18:42 Was mir bei Gsync nicht gefällt ist das flackern des Bildschirms. Im ersten Moment dachte ich mein Monitor wäre defekt. Kurze Google Suche ergab das das bei gsync auftreten kann. Sehr doof und die Sache dann nicht wert. Also verzichte ich drauf.

https://youtu.be/nXhnIdywbRw
In den Kommentaren zum Video wurde eine Antwort von Nvidia gepostet, die den Fehler reproduzieren konnten. Nach einem Treiber-Update war das Flackern verschwunden. Vielleicht klappt das ja auch bei dir?
Aha! Das werd ich dann mal probieren.
Benutzeravatar
Arkatrex
Beiträge: 2216
Registriert: 07.12.2010 07:35
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Arkatrex »

Liesel Weppen hat geschrieben: 24.08.2018 13:58
Arkatrex hat geschrieben: 22.08.2018 15:28 Edit: Was es immer noch angenehmer macht mit 60 FPS auf einem 120Hz Monitor zu spielen als mit 60FPS auf einem 60Hz Monitor.
Zwischen 60fps auf einem 120Hz-Monitor und 60fps auf einem 60Hz Monitor siehst du keinen Unterschied. Due siehst in beiden Fällen nur 60 Bilder pro Sekunde. Da LCDs nicht flimmern und zwischen zwei Refreshes das Bild nicht resetten müssen, also das Bild einmal kurz komplett weiß oder schwarz werden müsste, bevor das neue eigentliche Bild angezeigt werden kann, kannst du gar nicht merken, dass der 120Hz Monitor jeden Frame doppelt anzeigt.
Was anderes wäre es, wenn der 120Hz Monitor die 60fps interpoliert und somit praktisch auch 120fps daraus macht. Das würde allerdings Inputlag verursachen und deswegen will man genau sowas bei interaktiven Inhalten eben genau nicht haben.
Leon-x hat geschrieben: 22.08.2018 18:43 Freesync und G-Sync sagt quasi die Grafikkarte dem Monitor welche Bilder sie gerade ausspuckt und der passt sich kn der Range daran an. Dadurch verhindert man Tearing und der Input-Lag sinkt etwas.
Nicht ganz. Das LCD-Monitore überhaupt eine fixe Refreshrate haben, ist technisch gesehen eigentlich sowieso Unsinn. Das ist eher der Abwärtskompatibilität zu den damaligen Grafikkarten und CRT-Bildschirmen geschuldet.
Normale Monitore haben eine fixe Frequenz und pollen die Bilder von der Grafikkarte. Dadurch entsteht natürlich Tearing, wenn man das nicht synct. Mit V-Sync passt sich die Grafikkarte halt der Wiederholfrequenz des Monitors an um das zu vermeiden. (Was mMn ganz praktischerweise aber auch die Rechenlast auf der Grafikkarte begrenzt. Also ich zumindest brauche keine GPU die auf 100% 300fps berechnet, wenn der Monitor sowieso nur 60fps anzeigen kann. Dann reichts eben auch, wenn die GPU unter nur 20% Last und damit deutlich weniger Abwärme und deutlich weniger Stromverbrauch nur 60fps berechnet).

Bei G-Sync übernimmt komplett die Grafikkarte die "Wiederholratensteuerung" des Monitors und sagt sinnvollerweise, wenn ein Frame fertig dem Monitor dass er genau dann auch einen Refresh machen soll, die Grafikkarte pusht also das Bild zum Monitor. Das ist mMn eigentlich die offensichtlichste und logischste Art und Weise wie man ein LC-Display überhaupt ansteuern sollte. Dummerweise hat NVidia da ein Patent drauf gekriegt und einen wirklich offenen Standard der das genau so macht, gibts deswegen auch nicht.

Bei FreeSync(1) dagegen pusht die Grafikkarte die Frames immer noch nicht, sie kann aber den Monitor "bitten" seine Wiederholfrequenz anzupassen. Also wenn die Grafikkarte über ein paar Frames hinweg nur 48fps schafft, dann sagt sie dem Monitor er solle seine Wiederholfrequenz doch bitte auf passende 48Hz umstellen. Da aber eine Grafikkarte auch nicht hellsehen kann und daher nicht wissen kann, wie lange sie für den nächsten Frame brauchen wird, ist damit keine framegenaue Synchronisation möglich. Im Best-Case hinkt der Monitor bei jeder Bildwiederholratenänderung einen Frame hinterher. Bei dieser Technik ist es also immernoch nötig, dass die GPU eine möglichst stabile Framerate liefern kann, nur wo genau diese Framerate liegt, ist damit egal.
Mit FreeSync 2 wurde da nochmal einiges geändert, was dieses Problem abschwächen soll, oder sogar beseitigen, ohne NVidias Patente zu verletzen.
Du hast meinen Beitrag offensichtlich nicht komplett gelesen. Ich habe nicht gesagt es ist schöner, sondern angenehmer. Die flüssigere Eingabe bleibt. Und zum Thema flimmern habe ich auch meinen Senf dazu gegeben. Ich arbeite seit 17 Jahren im IT Support und habe etliche dolle LCDs gehabt die Flimmern. Auch die arbeiten nicht umsonst mit Frequenzen.

Auch dir gönne ich das Erlebnis einfach Mal auf 59 Hz umzuschalten und damit ein paar Stunden zu arbeiten oder spielen.
Doc Angelo
Beiträge: 5158
Registriert: 09.10.2006 15:52
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: RTX 2080 Ti, RTX 2080 und RTX 2070: Drei Grafikkarten mit Echtzeit-Raytracing in Spielen angekündigt

Beitrag von Doc Angelo »

Arkatrex hat geschrieben: 25.08.2018 08:32Ich arbeite seit 17 Jahren im IT Support und habe etliche dolle LCDs gehabt die Flimmern. Auch die arbeiten nicht umsonst mit Frequenzen. Auch dir gönne ich das Erlebnis einfach Mal auf 59 Hz umzuschalten und damit ein paar Stunden zu arbeiten oder spielen.
Ich denke das alle hier zustimmen, das es möglich ist, einen LCD falsch zu betreiben, so das er kein angenehmes Bild liefert. Es ist allerdings technisch einfach unmöglich, das ein LCD ein "Flimmern" aufweist, wie man es bei CRTs meint. Es geht einfach nicht, selbst wenn man wollte. Nur wenn ein Hardware-Schaden der Hintergrundbeleuchtung vorliegt könnte ein ähnliches Flimmern entstehen, welches dann aber nicht mit der Bildwiederholrate der Grafikkarte zusammen hängt.

CRTs flimmern immer, auch wenn man sie richtig ansteuert. LCDs tun das nicht.