DARK-THREAT hat geschrieben:[...]Bei den KOnsolen haben sie einen gemeinsamen Speicher und nehmen sich diesen gegenseitig weg und mindern sogar die Bandbreite bei der Nutzung (Bsp: bei 20% CPU-Nutzung der PS4 sinkt die tatsaechliche Bandbreite des GDDR5 von 140GB/s auf unter 110GB/s... usw).[...]
Nur weil die CPU zu 20% ausgelastet ist, heißt es nicht, dass die Bandbreite zum Speicher auch zu 20% ausgelastet ist. Je nachdem, was man da tut, kann es zwischen 0% und 100% liegen.
DARK-THREAT hat geschrieben:
Ah ok, also auch wieder eine Scalersache. Wo die XBO ein kleines bissl besser scheint.
Du hast immer noch nicht gesagt ob du eine der beiden Grafiken besser findest
Man braeuchte das gesamte Bild, am besten auf meinem 47" TV in ca 3 Meter Entfernung.
Erst dann kann ich sagen, ob eines der Bilder besser ausschaut...
DARK-THREAT hat geschrieben:Man braeuchte das gesamte Bild, am besten auf meinem 47" TV in ca 3 Meter Entfernung.
Erst dann kann ich sagen, ob eines der Bilder besser ausschaut...
Nein, das *kannst* du auch so. Du *willst* es nur nicht.
DARK-THREAT hat geschrieben:Man braeuchte das gesamte Bild, am besten auf meinem 47" TV in ca 3 Meter Entfernung.
Erst dann kann ich sagen, ob eines der Bilder besser ausschaut...
Nein, das *kannst* du auch so. Du *willst* es nur nicht.
Sorry, ich spiele meine Kosolengames nicht auf die Monitore meines PCs oder Surfaces. Da kann man dies eben nicht vergleichen.
@chichi27
Lügen? Ich gebe extra Links an, die zu neutralen Entwickler gehen oder Links, die neutrale Techniker analysieren laesst. Hier einen Lüge unterstellen ist das Allerletzte!
Ich klink mich aus, rutscht mir doch den Buckel runter.
DARK-THREAT hat geschrieben:Sorry, ich spiele meine Kosolengames nicht auf die Monitore meines PCs oder Surfaces. Da kann man dies eben nicht vergleichen.
Deine Behauptung war:
DARK-THREAT hat geschrieben:1080p machen keine bessere Graphik!
Ich habe dir ein gif mit einer sichtbaren Verbesserung gezeigt. Was folgt daraus? Wo genau hast du dich da auf dein Setup bezogen? Was für einen Unterschied macht dein Setup beim heruasfinden des Wahrheitsgehaltes deiner generellen Aussage?
Abseits davon: man kann alles miteinander vergleichen.
DARK-THREAT hat geschrieben:Nein, das ist kein "optimaler Wert", der beste Wert der Bandbreite des GDDR5 ist max 140GB/s: http://wccftech.com/sony-ps4-effective- ... u-scaling/
Und je nach CPU-Nutzung sinkt dies drastisch.
nein, die maximale bandbreite ist 176 gb/s, dein schaubild zeigt lediglich ein beispiel wie die cpu die bandbreite des gddr5 nutzen kann, entsprechend steht dann der gpu weniger zur verfügung.
stünde über dem schaubild etwas von "maximal zu verfügung stehende bandbreite", wäre das bild aussagekräftiger.
chichi27 hat geschrieben:
Auf dem Computer reicht bereits ein i5 Prozessor um eine 290X zu befeuern die ein vielfaches an Leistung der Ps4 GPU. Diese 50% Mehrleistung theoretisch zu nennen ist wagemutig vor allem da die Xbone derzeit noch den weitaus größeren Overhead hat
Wir dürfen aber die Konsolen nicht mit einem PC vergleichen. bei einem PC arbeiten CPU und GPU größtenteils unabhaenig voneinander und haben eigene Speicher. Bei den KOnsolen haben sie einen gemeinsamen Speicher und nehmen sich diesen gegenseitig weg und mindern sogar die Bandbreite bei der Nutzung (Bsp: bei 20% CPU-Nutzung der PS4 sinkt die tatsaechliche Bandbreite des GDDR5 von 140GB/s auf unter 110GB/s... usw).
Und wenn eben die Bandbreite immer weiter sinkt, dann kann die GPU stark genug sein, sie muss warten um Informationen teilen zu können. Und das ist das Problem bei den neuen Konsolen. Die CPU!
Lösungen sind da eben, die CPU zu entlasstetn, sei es mit Cloudcomputing, Mantle/DX12 oder gar schnelle Caches die die CPU nutzen kann (eSRAM, eDRAM).
@Captain Obvious
Welcher Lupenausschnitt von welchem Spiel und wirklich 1080p zu 900p?
Ähhh ... was hat denn die Auslastung der CPU mit der Bandbreite des RAMs zu tun? Das musste mir aber mal erklären.
Und warum nehmen sich die CPU und GPU gegenseitig den Speicher weg? Soweit mir bekannt ist lässt sich das in der Entwicklung eines Spiels festlegen wer was benutzt.
Und seid wann entlastet eSRAM die CPU? Der eSRAM ist zusätzlicher Speicher, sehr schneller aber auch in der Regel ein sehr kleiner Speicher und wohl wenn man den Entwicklern glauben darf auf der ONE extrem zu klein.
Alter Sack hat geschrieben:Das musste mir aber mal erklären. Und warum nehmen sich die CPU und GPU gegenseitig den Speicher weg? Soweit mir bekannt ist lässt sich das in der Entwicklung eines Spiels festlegen wer was benutzt.
von "speicher wegnehmen" zu sprechen ist eh unsinn, beide befüllen den ram, und durch die apu nähe befüllen sogar beide durch gleiches arbeiten an "einer" rechenaufgabe simultan den ram.
Viele wollen einfach immer noch nicht kapieren, dass es (den meisten) in diesem Fall nicht um die Auflösung an sich geht, sondern um dieses dumme Statement von Ubisoft ("Wir wollen keine Diskussionen mehr entfachen, also bekommen beide Versionen dieselbe Auflösung"). Nicht mehr und nicht weniger.
Und sorry, aber wer DAS, als neutraler Gamer, nicht als dämlich und falsch ansieht, ist nur noch verblendet, Ende.
Hab nochmal nachgeschaut was eine HD7850 an Bandbreite verbraucht und was eine moderne CPU wie der 4770K wegnimmt. Ich komme auf, Sage und Schreibe, ca. 178GB's. Passt wie die Faust aufs Auge, da sollte kein Bottleneck entstehen und es sind sogar nur Theoretische Auslastungen die im normalen Gebrauch sicherlich geringer sind.