DonDonat hat geschrieben: ↑10.04.2017 18:33
Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Wenn du bei dem Vergleich bleiben willst, dann würde ich sagen, wer keine 32GB RAM braucht, soll sich auch keine 32GB Ram kaufen. Wer aber bei 28" UHD auf Schreibtischdistanz keinen Unterschied zu FHD sieht, der sollte dringenst zum Augenarzt gehen.
Ich hab mir damals in der Schule auch nichts dabei gedacht, warum ich aus der letzten Reihe die Tafelanschrift nicht mehr lesen konnte. Nun, das war nicht normal, sondern ich habe einfach nur schlecht gesehen und brauchte eine Brille.
Balmung hat geschrieben: ↑10.04.2017 18:12
Ja, Nivida will gegenüber AMD meist noch mal gut 100€ mehr für ein sehr ähnliches Feature haben

Allerdings ist Adaptive-Sync halt schon sehr sinnvoll: nur deswegen konnte ich Fallout 4 richtig spielen, da ich dort leider oft FPS Drops in den <60FPS Bereich habe. Oder um ein anders Beispiel zu nennen: Nier Automata lässt sich so auch ausgezeichnet spielen und dass obwohl der PC-Port alles andere als gelungen ist.
Adaptive-Sync ist nur der Vorgänger von Freesync. Und nur weil die Technik ähnlich ist, heisst das nicht, dass sie gleichwertig sind.
Und G-Sync ist halt einfach besser, weil kurzfassung:
1) Normaler Monitor mit 60 (oder 120 oder 144Hz), der Monitor pollt in seinem fixen Raster, gegeben durch seinen eigenen Timer, den Framebuffer und stellt das dar. Ohne V-Sync entsteht dabei Tearing (mit steigender Hertzzahl UND FPS natürlich weniger auffällig, weil der zeitliche Versatz kleiner wird). Das kommt daher, weil die Monitorrefreshrate und die FPS-Produktion der Geaka in keine weise synchronisiert sind. V-Sync synchronisiert das und vermeidet somit Tearing. Heisst aber bei einem 60Hz Monitor leider zwangläufig, dass die Graka entweder 60fps liefern muss, oder die Framerate direkt auf 30fps/Hz einbricht, auch wenn die Graka 59fps liefern könnte, aber eben keine 60.
2) Mit Freesync hat der Monitor nachwievor seinen eigenen Timer, nur das der nichmehr mit fixen 60Hz läuft. Die Grafikkarte kann dem Monitor sagen, dass er seine Frequenz ändern soll. Der Monitor pollt also weiterhin, nicht stur mit 60Hz aber mit der Frequenz die er halt gerade hat. Weil sich aber nie vorraussagen lässt, wie lange die Graka braucht um den nächsten Frame zu berechnen, ergibt sich dadurch zwangsläufig immer ein Versatz, der zwar synchronisert wird, aber nicht beim Optimum ist.
3) G-Sync hat gar keine Taktung mehr im Monitor, hier sagt die Grafikkarte dem Monitor wann er sich refresehen soll. Und das tut sie natürlich jeweils, wenn sie einen Frame fertig berechnet hat. Damit entsteht gar kein Versatz mehr und die Regelung ist hier wirklich Framegenau und funktioniert daher von 0,00001fps bis dahin, was der Monitor eben maximal kann (also aktuell wohl 144Hz).
Das ganze ist historisch bedingt, CRTs brauchten eine Refreshrate, weil das Bild nur via Nachleuchten der Phosphorschicht erzeugt wurde. Ein CRT hat einmal ein Bild gezeichnet und das ist nach ein paar ms wieder verblasst. Deswegen musste der regelmäßig refreshen. Deswegen auch das Flimmern von CRTs, wenn die Refreshrate zu niedrig war.
TFTs dagegen haben das Problem gar nicht. Wenn die einmal einen Frame anzeigen, ist der Frame unendlich lange sichtbar, da flimmert nichts und verblasst auch nicht. Die Kristalle ändern sich nicht, solange der Monitor Strom hat und die Hintergrundbeleuchtung leuchtet sowieso dauernd. Auch bei OLEDs haben die Pixel Spannung und behalten ihre Farbe solange, wie Spannung anliegt, nur die brauchen halt keine Hintergrundbeleuchtung, weil die Pixel selbstleuchtend sind (wie auch bei Plasma).
Es ist also sogar eher unpraktisch, wenn so ein Monitor fixe Refreshraten fährt.
Nur NVidia hat sich das nur absolut logische Verfahren halt patentieren lassen und verlangt jetzt selbstverständlich Patentgebühren dafür.
Balmung hat geschrieben: ↑10.04.2017 18:12
Ich sag das lieber sorum, warum? Wenn 8K bei 28" Zoll gerade so dafür reicht, wird es bei einem deutlich größeren Monitor nicht mehr reichen. Von daher ist die ideale Auflösung eben nicht 8K, sondern ein bestimmter Pixelabstand macht die ideale Auflösung für die entsprechende Bildschirmgröße fest.
Verschwendete liebesmüh. Mit Leuten die den Zusammenhang zwischen Auflösung und Betrachtungsabstand nicht kapiert haben oder nicht kapieren wollen, braucht man eigentlich gar nicht diskutieren.
Da kommt dann nur immer die ewige Frage, warum man an einem 55" TV doch mit FHD gut auskommt, während man an einem Monitor selbst bei FHD Pixel sieht. Das man vom TV durchaus 2, 3, 4m weit wegsitzt, während man am Schreibtisch vom FHD-Monitor gerade mal 60cm entfernt ist, wollen die einfach nicht kapieren.
Balmung hat geschrieben: ↑10.04.2017 18:12
Ich scheine mich nicht klar genug ausgedrückt zu haben: mir ist der Nutzen von 8k und ähnlich hohen Auflösungen bzw. daraus resultierenden PPIs sehr wohl bewusst, nur erscheint es mir beim abwägen zwischen der Leistung die für 4k (oder geringere Auflösungen) und AA nötig sind und der, die für 8k nötig sind halt viel sinnvoller AA zu nutzen anstatt 8k.
Also mir ist das schon klar. Der Verzicht auf AA zu gunsten höheren Auflösungen wird auch nicht die nötige Rechenleistung aufwiegen um die höhere Auflösung überhaupt erreichen zu können. Aber wenn man die höhere Auflösung errecht, dann kann man eben auch AA einsparen.