Ich kann hier manches echt schlecht nachvollziehen.

Mein letztes Hardware-Upgrade ist inzwischen viele Jahre her. Hab ein System mit zwei 1080Ti im SLI-Verbund - ja, gerade im Nachhinein ein riesiger Fehler, weil mir das bei Titeln der letzten paar Jahre gar nichts mehr bringt. Der zweite Fehler: Mit diesem System auf 4K zu wechseln.
Das war viel zu früh. Zockt man in 4K, hat man zwei Probleme: Erstens, man möchte nicht mehr zurück auf kleinere Auflösungen. Und zweitens, wahrscheinlich reicht die Leistung nicht.
Die 4090 wird es also werden, aber ganz ehrlich, dafür werde ich noch etwas sparen müssen. Entgegen mancher Aussagen hier ist eben nicht jeder, der Bock auf so ein Teil hat, auch reich.
Aber wahrscheinlich gehöre ich einer ziemlichen Randgruppe an. Ich ziele auf Ultra-Einstellungen, darunter geht bei mir nichts aus Prinzip. Wobei, nicht nur aus Prinzip - ich liebe schöne Grafik und digitales Sightseeing. Und der Sprung auf 4K war vor allem daher begründet, dass mich der Treppeneffekt und das Geflimmere an den Kanten, also der Alias-Effekt, immer schon extrem gestört hat.
Leider hat 4K dieses Problem nicht beseitigen können, es flimmert immer noch unangenehm viel. Und effektive Kantenglättung ist extrem leistungshungrig. Ich wollte vor ein paar Tagen endlich Wolfenstein - The Old Blood zocken. Das hat ziemlich offensives Kantenflimern, weshalb ich per Nvidia-Inspector besseres Antialiasing aktiviert habe. Das Ergebnis: 30 fps in manchen Szenen. mit Drops runter auf 24 fps. Sprich, so unspielbar. Und das ist von 2015.
Stattdessen zocke ich gerade Tomb Raider. Das von 1996. In 4K. Läuft super!
Das nur als Beispiel. Ich habe massig schlecht optimierte UE4-/Unity-Indiespiele, die mit maximalen Einstellungen mit deutlich unter 20 FPS laufen. Ich kann also den Aussagen hier, dass die Leistung ja kaum benötigt wird, nicht zustimmen.