trineas hat geschrieben:
Die Playstation 3 hat etwa 400 Gigaflops. (Das gesamte System)
Eine 600 Euro-Nvidia-Grafikkarte von 2006 hat etwa 300 Gigaflops.
Die Playstation 4 hat etwa 1,8 Teraflops. (Das gesamte System)
Eine aktuelle 500 Euro-Nvidia-Grafikkarte hat über 3 Teraflops.
Das mit den 400 GFLOPs ist total schön gerechnet, mit Vertex, Pixel, Mist-ALU usw.
Die haben sich die PS3 auch mal kreativ auf 2 TF hochgerechnet, seltsam, da ist die PS4 ja sogar bisschen schwächer.
Die PS4 hat übrigens ~ 2 TF, 1.84 GPU und +~100 CPU.
Cheraa hat geschrieben:Da die Next Gen eigentlich komplett auf klassischer PC Architektur aufbaut würde ich sogar davon ausgehen dass der PC die Lead Plattform sein wird und dann wie mein Vorposter schon sagte dort einfach für die Konsolen abgespeckt wird mit der Zeit.
Die Komponenten sind klassisch, dass System nicht.
Es gibt gemeinsamen Speicher, gemeinsame Adressräume, keine Kommunikation über das Mainboard durch PCIe, sondern Chip-Intern durch die Northbridge.
Das sind teilweise schon deutliche Systemunterschiede, auch wenn die Einzelteile beinahe gleich sind.
Nostal hat geschrieben:
1. wird die Xbox ca. 400-500€ kosten und die PS4 wohl eher 600-700
3. Die GPU der PS4 hat keine 7 GB zur Verfügung sondern teilt sich die 8 GB..heißt in viele Situationen wirst du diese 8GB für die GPU halbieren können da der Zwischenspeicher auch was ab haben will.
1. Weniger phantasieren. Sony hat bestätigt, dass die PS4 definitiv keine 600€ kosten wird. Realistisch sind 499-529€
3. Die GPU hat schon einen Großteil des VRAMs.
Bei Killzone:SF z.B: belegt die GPU 3 GB, die CPU 1,5GB, 128mb werden gemeinschaftlich genutzt.
James Dean hat geschrieben:Bin mal gespannt, wie sich das mit dem RAM auswirkt. Sony hat zwar schnellere 8 GB GDDR5 RAM, dafür ist das aber Grafikkarten-RAM, der nicht für CPUs gedacht ist, da eine GPU ganz anders arbeitet (höhere Latenz als bei DDR3, dafür aber parallele Verarbeitung von Daten) als eine CPU (linear laufende Prozesse und benötigte niedrige Latenz). Insofern bin ich mal gespannt, wie sich das später auf die Spiele auswirkt. Man darf gespannt sein, wer letzten Endes effektiver ist.
GDDR5 sollte CPUs keine Probleme machen, die Latenzen sind die gleichen übrigens.
Was zählt ist die absolute Latenz und die errechnet man, indem man die Latenz durch die Mhz teilt, dann hat man die Zugriffszeit in Nanosekunden. Die ist bei DDR3 und GDDR5 fast gleich.
AkaSuzaku hat geschrieben:
Deine Aussage wurde ja schon als so nicht richtig deklariert. Dazu kommt aber noch, dass es gar kein DDR5-Ram gibt! Ende des Jahres wird wohl erst DDR4-RAM erscheinen. Sony verbaute das für GPUs übliche GDDR5-RAM, was nichts anderes als hinsichtlich der Bandbreite aber auf Kosten der Latenz optimiertes DDR3-RAM.
Hätte MS nun geahnt, dass Sony 8Gb GDDR5-RAM verbaut, hätten sie vermutlich aber trotzdem nicht gleichgezogen, da diese Sorte RAM relativ ungeeignet für die Apps und die drei im Hintergrund laufenden OS (Wieso eigentlich drei?) gewesen wäre. 50/50 wäre natürlich die logische Wahl gewesen.
Viel stärkeren Einfluss auf die Gesamtleistung wird meiner Meinung nach aber ohnehin die GPU haben. Allerdings traue ich den Daten nicht so richtig, da das schon ein deftiger Unterschied wäre. (Wobei man das bei der PS3 ja auch behauptete.)
Wie gesagt, absolute Latenz ist gleich. Die Speicherzellen sind die gleichen, bei GDDR5 liegt ein anderes Interface dazwischen. Da optimiert man auf hohen Takt.
Die Nachteile sind höhere Kosten, höherer Stromverbrauch natürlich, andere Routing-Regeln und um solche hohen Taktraten garantieren zu können muss es aufgelötet werden.
Daneben gibt es noch paar andere Unterschiede, dass ganze ist aber nicht so gravierend.
Der Ram ist somit überhaupt nicht ungeeignet für irgendetwas.
Das mit den unterschiedlichen OS führt zu Unabhängigkeiten und leichten Wechsel.
Den Daten darf man trauen. Es sind 50% mehr GPU-Power bei der PS4.
Tim13332 hat geschrieben:also was 32mb sdram bringen sollen versteh ich auch nicht, ka was da durchgehen muss, aber wenn da ne gute hd textur passt da nicht rein oder?^^
In den eSRAM passen viele Einzelteile eines Bildes, verschiedene Buffer usw.
Der eSRAM federt den langsamen Arbeitsspeicher ab und versorgt die GPU somit mit genug Futter.
Das ist eine Speicherhierachie.
Wichtig bei so einer Lösung ist natürlich, dass der Data-Flow richtig gut funktioniert.
Man muss die Daten gut verteilen, um möglichst großen Durchsatz zu erreichen.
Ash2X hat geschrieben:
Was die technischen Daten angeht: Über die Grafik schweigen sich beide Konsolenhersteller aus aber so wie ich das sehe können sie sagen was sie wollen.Selbst wenn entweder die PS4 oder XBO 10-mal bessere Optik bieten würde bedeutet es nicht das sie die Leistung auch irgendwann abrufen werden.
Das hat einen einfachen Grund der dem jetzigen Markt schon massiv zu schaffen macht: Es ist zu teuer.
Welchen Einfluss das 3er Betriebssystem auf die Programmierung und auf das nutzen der Features bei der XBO hat ist auch nicht abzusehen.Genausowenig der schnellere Speicher,wenn die PS4 diesen Bonus nicht hat - Gerüchte sprechen dort ja auch davon das eigentlich nur 4GB effektiv nutzbar sind weil das Grundsystem so massiv Speicher frisst.MS ist das teilweile umgangen.Man kann aber davon ausgehen das so bei der XBO der RAM massiv entlastet wird und Spiele eine bessere Grundlage haben um eine stabile Performance zu bieten - sonst hätten sie es nicht gemacht.
.
Nein, Sony hat die Daten offen gelegen. Ihre GPU hat 1.84 TF.
MS hat nichts über die Takte gesagt, aber das sie 768 ALUs hat, bei 800 Mhz wie in den Leaks es steht wären das 1.2 TF.
Und Himmel, natürlich verwendet die PS4 nicht 4 GB vom Speicher.
1-1.5 GB darf man erwarten.
MS reserviert sich bestätigt 3 GB.
Imperator74 hat geschrieben:Nochmal wegen CPU ....
Die beiden Konsolen unterstützen PhysX nur per CPU nicht per GPU. Insofern ist die CPU Leistung evtl. schon wichtiger als man im ersten Moment vermuten würde.
Das stimmt zwar, aber Havok lässt auch GPGPU zu.
Bullet könnte auch verwendet werden.
Nvidias Lösung ist bloß auf die CPU beschränkt, weil sie ihre CUDA Bibliothek nicht auf OpenCL porten wollen.