YassirX hat geschrieben:...der Sony "Bauerfang" hat scheinbar geklappt. Diese 8GB "GDDR5" Speicher sind defakto eigentlich sogar schlechter als herkömmlicher DDR3 Speicher (er basiert sogar auf der DDR3-Technologie). Es handelt sich dabei um die Grafikspeicher-Version des DDR3-RAM, das "G" steht für Graphics". Sony verwendet diesen Speicher in der Konsole als Hauptarbeitsspeicher, das ist nicht die sinngemäße Verwendung dieser Hardware.
Ich bin relativ sicher das ein herkömmlicher DDR3 Speicher mit guten Latenzen besser abschneidet als dieser GDDR5 pseudo RAM, aber die Hardwarespezifikationen der PS4 sind sowieso total enttäuschend. Ihr könnt damit rechnen das die Latenzen des RAM irgendwo bei CL15-20 liegen, was absoluter schrott ist. Die Playstation 4 ist nicht deutlich besser als die Playstation 3, das sollte sie aber sein... wenn man bedenkt wie alt die PS3 mittlerweile ist. Die PS3 war damals ihrer Zeit vorraus, die PS4 ist leider bereits vor Release veraltet.
...aber was solls. Ich bin schon seit längerem wieder zurück auf dem PC, meine Freunde haben immer noch nicht verstanden das man einen Rechner an einen Fernseher anschließen kann. Konsolen sind für Average Joe, genauso wie Macbooks.
Dann korrigiere ich mal den "Bauerfang"
Diese 8GB GDDR5 sind de facto in Sachen Leistung die deutlich bessere Lösung.
Du hast sowieso nur die Wahl gehabt zwischen 8GB DDR3 und 8GB GDDR5 oder exotischen Speicherlösungen, die wohl zu teuer und zu früh für das ganze wären (Man hätte auch eine feinere Speicherhierarchie machen können mit eDRAM).
Du hast eine CPU (Latenz-liebend) und eine GPU (Bandbreiten-liebend).
Die GPU würde ohne die hohe Bandbreite verhungern (Performance-Verlust), mit DDR3 wäre die Bandbreite nicht einmal die Hälfte so hoch.
Übrigens interessiert es nicht so arg, ob die Latenz für die Zugriffe steigt, denn der Takt steigt auch stark mit.
Du teilst immer die Latenz durch den Takt und erhältst deine
absolute Latenz.
Oder wieso setzen wir eig. auf DDR3? DDR1 hat doch viel bessere Latenzen, weil eben auch die Bandbreite für die CPU steigen muss und wenn der Takt hoch genug ausfällt, verändert sich an der absoluten Latenz gar nichts.
Die sollte deswegen bei GDDR5 nicht wesentlich höher sein, weil der Takt deutlich höher ist.
Übrigens ist das ganze Zeug von AMD und AMD hat einen speziellen Speichercontroller bei ihren APUs, die CPU bekommt Zugriffe reserviert, was die Latenzen vergleichbar gestalten sollte.
Sony, ich würde hier lieber AMD sagen, weil Sony hat wohl kaum mitgedacht

, verwendet alles genau so, wie man es sollte.
Und GDDR5 als pseudo zu bezeichnen.
Und die PS4 ist deutlich besser als die PS3.
Aber ich bin schon ruhig, ich bin ja schließlich nicht so ein Hardware-Experte wie manch anderer hier.
tamberlane hat geschrieben:
Was mich an der Sache interessiert, ist wie die Schnittstelle zur Grafikausgabe gebaut sein wird. Wir hier propietär wieder ein eigenes Süppchen gekocht, oder wird auf schon bekannte Schnittstellen (OpenGL???) zurückgegriffen?
Proprietär.
Bei Nintendo kommt GX2 zum Einsatz als API, MS benützt eine angepasste DX-Bibliothek und Sony verwendet LibGCM und hat noch PSGL angeboten, die scheinbar kaum ein Studio verwendet hat.