Nerix hat geschrieben:
Hier ein denke ich recht entscheidender Aspekt bzgl. Deines Punktes, dass die GPU ohnehin schon ausgelastet sei:
Digital Foundry: Going back to GPU compute for a moment, I wouldn't call it a rumour - it was more than that. There was a recommendation - a suggestion? - for 14 cores [GPU compute units] allocated to visuals and four to GPU compute...
Mark Cerny: That comes from a leak and is not any form of formal evangelisation. The point is the hardware is intentionally not 100 per cent round. It has a little bit more ALU in it than it would if you were thinking strictly about graphics. As a result of that you have an opportunity, you could say an incentivisation, to use that ALU for GPGPU.
So wie ich Mark Cerny einschätze, hat er ein sehr breiten Background was Hardwarearchitektur und den programmiertechnischen Hintergrund angeht. Wie es aussieht wurde die PS4 Architektur mit dem Bewusstsein entwickelt, sie für GPGPU auszulegen, die GPU also genau dafür Reserven hat.
Vor diesem Hintergrund hat die GPU auch zwei Buses, "Garlic" und "Onion". Damit ist der direkte Austausch zwischen GPU/CPU möglich, ohne die Caches zu verwenden, was für GPGPU nach meinem Verständnis wichtig ist.
Ich finde das Thema auf jeden Fall sehr spannend, also falls jemand ein paar Literaturtipps hat, wo einige Grundlagen zu Hardwarearchitekturen beschrieben sind, nur her damit

Da Mark Cerny der Lead Hardwarearchitekt der PS4 ist versteht er gewiss sehr viel von Soft- und Hardware^^ Allerdings ist das auch gleich das "Problem" an der Sache...er wird sein Produkt letztlich so glanzvoll und imposant, wie möglich vermarkten. Das ist so als ob dir ein Spielentwickler erklären will wie toll sein Spiel ist, das er selbst vollkommen begeistert davon ist und von neuen Maßstäben spricht liegt auf der Hand.
Es ist natürlich nicht von der Hand zu weisen das die PS4 und in geringerem Umfang auch die Xbox One, eine sehr einfache, programierfreundliche Hardware besitzen, welche sich dazu auch noch sehr effizient nutzen lässt. Da kann man so mancher Lobbeshymne eines vielleicht nicht ganz so "verfangenen" Entwicklers durchaus glauben Schenken. Das Grundsätzliche HW Konzept der neuen Konsolen ist so gesehen als hervorragend zu bezeichnen. Aber ein Konzept allein bewirkt noch keine Wunder, denn jetzt kommt es, das "aber"....aber das ändert nichts daran das die einzelnen Recheneinheiten relativ schwach ausfallen. Sowohl GPU, als in besonderem Maße auch die CPU haben eher mittelmäßige Leistung, im Vergleich zu dem was am Markt erhältlich ist.
Das ist zum einen mit der APU an sich begründet, welche durch ihre Chipfläche eine möglichst hohe Marge aus den Wafer generieren soll und zum anderen mit der TDP, sowie dem Preis einer Konsole allgemein. Man kann schon sagen das Sony mit der PS4 so ziemlich das maximal machbare aus dem Gehäuseformat herausgeholt hat und noch so eine Subventionierung wie bei der PS360 traut sich wohl auch keiner der beiden Hersteller.
Aber zurück zu den ALUs...welche ja Recheneinheiten darstellen...die in die 1,84Gflops der PS4 GPU mit einfließen. Ehrlich gesagt versteh ich nicht ganz was Cerny damit ausdrücken will. Die ALUs könnte man genauso für das Rendern verwenden. Wenn man diese aber speziell für GPGPU vorhält, hat man unterm Strich weniger Leistung für die Renderarbeit. Was zu meiner Aussage hin aber Jacke wie Hose ist. Man kann nicht aus dem nichts Leistung holen. Willst du GPGPU betreiben, musst du mit Performanceverlust bei dem jeweiligen Chip rechnen. Weiter ist hier auch fraglich ob man den vom PC bekannten PCIe Bus dadurch Auslasten kann. Man nutzt ja nur einen Teil der Rechenleitung und muss entsprechend auch nicht soviele Daten hin und her schicken.
Wie gesagt würde ich mir von GPGPU in Videospielen nicht so viel versprechen, vor allem nicht wenn es um die Grafik geht. Die GPU ist nicht umsonst für die Bildausgabe zuständig, da hat die CPU, zu der man es auslagern könnte, nicht viel mit am Hut.
Oder um es mal etwas praktischer zu gestalten:
Ryse läuft auf der Xbox One mit 900p@30FPS...warum? Weil die GPU nicht genug Leistung für eine Darstellung in 1080p@30FPS hat. So, dank der APU und einem gemeinsamen Speicherpool* kann man nun die Aufgaben sehr effizient verteilen...an die CPU. Da die CPU aber denkbar schlecht für die meisten grafischen Berechnung geeignet ist, macht es kaum Sinn dahin auszulagern. Mal ganz davon abgesehen das die recht schwache CPU selbst genügend zu tun haben dürfte, ihre eignen charakteristischen Aufgaben zu erfüllen. Lass mal im Extremfall 20% GPU Entlastung raus springen, das reicht immer noch nicht für 1080p^^ Dafür opferst du aber auch 10% CPU Leistung. (Vorsicht % Wert sind frei erfunden)
Die andere Richtung betrachten kannst du jetzt also 20% Leistung bei der CPU sparen. Sagen wie mal für die Ki, respektive ist die bessere Ki erst dadurch möglich. Das bedeutet aber am anderen Ende der Nahrungskette, das die GPU 10% mehr Aufwand hat. Anders ausdrückt werden aus den 900p@30FPS, 900p@27FPS oder aber man verzichtet auf Effekte, Auflösung. etc.
*denn es auf der Xbox One glaube nicht mal gibt, da Kabini (nix HSA)
/WALLofTEXT