Bei 1080p geb ich dir hinsichtlich FXAA recht, würde ich dort auch niemals nutzen, kenn ich noch gut von meinem alten 1080p (bin direkt von da auf 4K umgestiegen). bei 4K aber ist die Unschärfe so gering durch die hohe Pixeldichte, dass es kaum noch auffällt und ein brauchbares einfaches AA darstellt, das so gut wie keine Leistung kostet.
Ja, gibt leider solche Spiele die flimmern extrem, Alien Isolation fällt mir da spontan wieder ein, das war damals besonders schlimm, auf 4K deutlich besser, hatte ich mir erst vor ein paar Wochen angesehen (wegen 10Bit Support).
CryTharsis hat geschrieben:th3orist hat geschrieben:Sprich 1080p sieht auf nem Full HD besser aus als 1080p upgescaled auf einem UHD.
So ist das tatsächlich.

Das ist doch Quark, UHD ist exakt die doppelte Breite und Höhe von FullHD. Wie soll das dann auf einem FullHD besser aussehen? Auf einem UHD belegt dann halt ein Bildpixel 2x2 Displaypixel, das Bild ist aber genauso scharf und sonst ist da ja nichts wieso es auf einem UHD schlechter aussehen könnte.
Wenn es schlechter aussieht dann hat der UHD einen beschissenen Upscaler verbaut, der es irgendwie schafft das Bild zu verfälschen, vermutlich durch irgendwelche schrottigen Bildverbesserungsfeatures. Die sollte man bei einem anständigen UHD aber deaktivieren können.