ChrisJumper hat geschrieben:
1. Bin ich davon ausgegangen das ein Bildschirm eine kleinere Auflösung halt auch darstellen kann indem er einfach die Auflösung herunter schaltet. Vielleicht können das TFT-Monitore nicht weil die ja immer physische Bildpunkte haben.
Genau, das Panel kann das nicht, das hat eben nur phyische Bildpunkte. Die Bildschirme können idR niedrigere Auflösungen anzeigen, dann skaliert aber eine CPU/GPU im Bildschirm die Auflösung auf die des Panels hoch.
Bzw auch umgekehrt, wenn ich an meinen alten HD-Ready TV eine FHD-Quelle angeschlossen habe, wurde die auch runter skaliert. Wobei da sowieso fast immer skaliert wurde, denn auch wenn z.B. die PS3 720p geliefert hat, wurde das auf die 1366x768 Pixel skaliert.
Stell dir mal vor, du hast eine LED-Leiste mit 10 LEDs und jetzt gibt dir jemand eine Lichtfolge mit 6 LEDs, die du auf deinen 10 LEDs anzeigen sollst. Entweder du benutzt nur die ersten 6 und lässt die letzten 4 LEDs unbenutzt (das kann ein Panel nativ, dann gibts aber schwarze Ränder) oder du überlegst dir, wie du die 6 QuellLEDs auf deine 10 physischen LEDs "mappst". Das ist genau der Skaliervorgang, den ein TV immer machen muss, wenn die Auflösung nicht 1:1 passt.
ChrisJumper hat geschrieben:2. Unter Native, dachte ich auch hier nur an die Game/Grafikkarten Ausgabe.
Liesel, mit dem Begriff Native, habe ich jetzt sogar meinen Ursprungsgedanken verloren. Ich meine halt wenn man es bei der Erzeugung des Bildes schon berücksichtigt, das es für zwei verschiedene Auflösung entwickelt werden muss. Ist es doch auch Native.
Nein, es geht darum, in welcher Auflösung das Bild berechnet wird, nicht in welcher Auflösung es aus dem Bildschirmausgang der Konsole rauskommt. Wenn das Bild in 1440p berechnet wird und die Konsole das selbst auf 2180p hochskaliert, kriegt der TV zwar direkt UHD, das Bild wurde aber trotzdem skaliert.
Ob jetzt die Konsole das Bild selbst hochskaliert oder der TV spielt im Endeffekt keine große Rolle. Man könnte höchstens darauf gehen, dass die Konsole in jedem Fall mit gleicher Qualität skalieren wird, wohingegen die Skaler diverser TVs unterschiedlich gut skalieren.
ChrisJumper hat geschrieben:
Klar gibt es Informationsverluste, wenn man Texturen herunter oder hoch skaliert. Aber wenn der Speicher doch entsprechend groß ist und zu 100% mit Infos gefüllt wird, die Ausgabe dann in 4K Bild ist, dann ist es doch 4K. Ganz gleich ob das Hintergrundbild, übertrieben Formuliert nur aus roten Punkten besteht oder nicht.
Ja, die Frage ist aber, wie der Speicher befüllt wird. Mit welcher Quelle?
Um mal dein Beispiel weiter unten aufzugreifen: Wenn du ein Foto mit 8MP machst und es dann auf 12MP hochskalierst und abspeicherst, hat das neu gespeicherte Foto natürlich die vollen 12MP. Die sind aber trotzdem nicht nativ (ursprünglich), weil ja skaliert wurde und physikalisch nur 8MP aufgenommen wurden. Die restlichen 4MP sind nur aus den 8MP dazu interpoliert worden und haben keinen "physikalischen" Urspung.
ChrisJumper hat geschrieben:Ah genau, bezüglich heißer gekocht als gegessen. Das hat mich jetzt wieder drauf gebracht. Ich meine zum Beispiel auch das die Auflösung irgendwann so groß ist, das der Mehrwert oder der bessere Mehrwert vernachlässigbar wird. Quasi Megapixel Kameras. 15 zu 18 zum Beispiel.
Der Mehrwert der Auflösung hängt vom Betrachtungsabstand und der Displaygröße ab. UHD macht bei 3m Abstand erst ab ~55"+ wirklich Sinn, weil das Auge einfach nicht mehr erkennen kann.
Was ich aber meinte, je höher die Auflösung wird, umso irrelevanter wird es, ob das Bild jetzt wirklich in der nativen Auflösung vom TV berechnet wurde, oder ob da noch was skaliert wird.
Bei den Kameras hängt es wiederrum davon ab, was man mit den Fotos machen will. Im Druck werden 300-600dpi verwendet und man guckt ja die Ausdrucke dann oft auch aus sehr kurzer Distanz an. Eventuell will man die Bilder auch großformatig ausdrucken, z.B. als Poster, dann ist man mit 15 oder 18MP oft sehr schnell am Limit.