greenelve hat geschrieben:
Gibts mittlerweile aktuellere Infos über das Innenleben der WiiU? Ich finde nur "ältere" Artikel, als die Konsole kurz nach Release auseinandergenommen wurde.
Laut Hacker Macaran eine CPU auf Basis des Wiis Chips der jetzt mit 1.24 Ghz rennt, aber scheinbar keine wirklichen Aktualisierungen bekommen hat, SIMD-Erweiterungen sollen nicht dazu gekommen sein und die FPU ist weiter 64-Bit breit.
GPU mit 32mb eDRAM und 550 Mhz.
Über die GPU und die Veränderungen ist leider wenig bekannt.
Die RV7xx Gerüchte haben aus meinen Augen nie Sinn ergeben, da das Zeug schon alt ist und mit der RV8xx Series es ein gutes 40nm Update gab.
Es gab nur einen einzigen 40nm RV7xx als Testballon für die 40nm Fertigung.
Keine Ahnung was jetzt genau verwendet wird, die meisten pointen auf RV7xx.
1 GB DDR3 1600mhz für Games mit 12.8 Gb/s
Es fehlt vollkommene Gewissheit über GPU und ihre Veränderungen, die Kommunikationsmöglichkeiten von CPU und GPU untereinander und wie hoch die Bandbreite ist.
Ebenfalls natürlich was die CPU als Update bekommen hat.
Nur etwas Cache und mal 3 wäre eine recht schwache Leistung, die sich leider so abzeichnet.
Auszüge aus einem Artikel:
Der DSP-Audioprozessor kann die CPU maßgeblich entlasten, bei PS3 und Xbox360 wird bei vielen Spielen bis zu 20% der CPU-Leistung alleine für die Audio-Berechnungen genutzt, bei aufwendiger Soundkulisse kann das sogar noch mehr werden, der Wii U DSP macht das nebenbei ohne die CPU zu belasten.
Ohne Quelle glaube ich dem Typ 0, weil ich schon ganz genau herauslese das er vieles schreibt was nicht stimmt und natürlich keinen neutralen Aufmacher hat.
Damit wäre die CPU der WiiU "stärker", da sie durch die Entlastung mehr Leistung entfalten kann. Wenn es denn stimmt, höre von 20% bei PS360 das erste Mal.
So etwas höre ich auch zum ersten mal, die Angaben sind eh für den Po:
Keine Quelle
Kein Beweis
Meint er jetzt ganze CPU, ein Kern, eine SPU von einer PS3?
Der Xbox 360 Technik Guy meinte man hat sich bei Audio Zeug für die CPU entschieden, die erste Xbox hatte noch einen DSP-Audioprozessor von Nvidia, aber das Problem ist das muss man getrennt programmieren und ist im Zweifel nicht so flexibel.
Wie groß die Last bei der Berechnung ist, konnte ich leider auf die schnelle nicht finden.
(Unten)
http://interviews.teamxbox.com/xbox/119 ... lmdahl/p1/
Was ist eine GPGPU? Kurz gesagt: Eine programmierbarer Grafikchip der auch spezielle Berechnungen ausführen kann die sonst der CPU vorbehalten bleiben (z.B. KI und Physik) und das kann eine GPGPU dann auch deutlich schneller als eine CPU.
Würde die CPU weiter entlasten und KI / Physik durch die Mehrleistung aufwerten. Auch hier, klingt etwas sehr optimistisch. :/
Ist ja auch viel blablabla. K.I und Physik-Berechnungen sind auch nicht allgemeingültig.
Aber viele Splitter und viele K.I Routinen die simpel gestrickt sind, kann eine GPU schneller berechnen.
Das Problem bei der Wiiu ist, man hat sicherlich keinen gemeinsamen Adressraum und die GPU ist kein Monster, die berechnet noch Grafik für den TV und sendet noch eins an den Controller.
Das macht das ganze wenig praktikabel und ist der Grund wieso das Zeug weder auf dem PC noch auf den anderen Konsolen eingesetzt wird, obwohl es dort ebenso seit Ewigkeiten möglich ist.
Dazu muss man wissen wie gerade die Technik funktioniert:
Die CPU sendet an die GPU immer Befehle, die GPU kann nicht selbständig denken und rechnen.
Benötigte Daten schreibt die CPU in ihren Arbeitsspeicher und dieses Datenbündel wird dann über PCIE zu der Grafikkarte kopiert, die rechnet etwas aus und sendet die Daten zurück an den Arbeitsspeicher der CPU und von dort aus holt sich dann die CPU die Daten.
Du merkst das ist einfach schrecklich wie es bisher funktioniert.
DDR3 hat z.B. selber eine Bandbreite von 24GB/s im Dual-Channel, PCIE3 der neue Standard schafft bei 16 Lanes nur 16 Gb/s.
Die Latenzen sind auch nicht die besten und der Signalweg lang.
Bei der Xbox 360 und der Wiiu ist das prinzipielle Problem nicht so extrem.
Die teilen sich einen gemeinsamen Speicher, womit alles über den Arbeitsspeicher läuft und etwas weniger Zeit benötigt.
Hier ist es jetzt so:
CPU und GPU reservieren sich einen Teil vom Arbeitsspeicher, jetzt schickt die CPU Daten an den reservierten Platz der GPU und die kopiert das zu dem Pool, die die CPU reserviert hat.
Also der prinzipiell "gleiche" Copy-Overhead, bloß die Latenzen sind viel geringer weil der Zugriff so schneller gelingt.
Dennoch ist es aufgrund des ständigen Kopierens einfach nicht praktikabel.
Bei der Xbox hatte man noch eine zusätzliche Entlastungen, paar Daten im Cache der CPU konnte die GPU direkt auslesen, was ohne Umwege über den Speicher ging.
Die Wiiu könnte da auch ähnliches bei der Kommunikation haben oder weitere Verbesserungen, ich weiß es nicht. Aber von GPGPU erwarte ich auf der Wiiu wenig.
Problematisch ist in der Beziehung das die Wiiu nur 12.8Gb/s schafft, dass kann man für GPGPU eigentlich so vergessen.
Bei der PSnext und Xbox Next kann man da einiges erwarten.
Die werden wahrscheinlich einen gemeinsamen Adressraum haben und somit entfällt das lästige Kopieren, CPU und GPU haben dann gleichwertig Zugriff auf die Daten bzw. jeder kann die Daten aktualisieren bzw. einlesen ohne für sich extra zu kopieren.
Erst damit wird GPGPU praktisch einsetzbar, bei Berechnungen die gerade von der CPU gemacht werden geht es viel um Interaktion, immer wieder neue Daten müssen berechnet werden, es ist dynamisch es verändert sich viel usw.
Gerade bei so etwas wie GPGPU über interaktive Physik tötet der Copy-Overhead deinen theoretischen Vorteil komplett.
Effect-Physik ist aber praktikabel da kann die GPU selbständig einfach paar Partikel berechnen und anzeigen, ohne ständig mit der CPU kommunizieren oder hin und her kopieren zu müssen.
Auch wird im Artikel gesagt, GPGPU findet erst seit 2011 in PC's verwendung, was gegen das "ist schon beim Release Jahre veraltet" widerspricht.
Quatsch mit Soße deluxe. Schon seit man programmierbare Shader hat kann man halbwegs GPGPU verwenden.
Bloß Sinn hat das früher gewiss nicht gemacht.
Mit jeder neuen Generation konnten die GPUs mehr Befehle, wurden flexibler, haben Sachen effizienter und besser gelöst und haben immer mehr Features unterstützt.
Auch die Verbindung zwischen den Einheiten konnte immer mehr Gb/s schieben.
Die 19xx-Series von ATI anno 2005 hat z.B. irgendwelche Work-Units bei folding@home berechnet.
GPGPU war der große Aufmacher von Nvidia in Bezug auf ihre G80 Series mit Cuda und tam tam im Jahr 2006 etc.
Aufgrund des Copy-Overheads ist wie gesagt die praktische Nutzung bisher sehr beschränkt gewesen.
Die APUs von AMD Llano z.B., 2011 released, hat wie die Xbox 360 und Wiiu einen gemeinsamen Speicherpool, also der DDR3 Arbeitsspeicher, die können auch etwas mehr Daten tauschen, als klassisch aufgebaute PCs, Trinity ist das zweite Level und macht das ganze noch etwas besser.
Ende 2013 hat AMD vor mit Kaveri "Level 3" einen gemeinsamen Adressraum anzubieten, also hier würde ein Durchbruch stattfinden.
Sony und MS setzen angeblich auf das ganze Zeug von AMD.
Das bekommen die Leute leider falsch in den Hals und wird noch oft so geschrieben, ganz schlimm ist es ja wenn sogar Iwata davon redet.
GPGPU sagt eigentlich nur aus, dass man jetzt allgemeine Berechnungen die bei der CPU bisher abgelaufen sind auf der GPU ausgeführt werden. Die Möglichkeit besteht schon seit vielen Jahren.
Der Nutzen davon ist aber natürlich mit jeder Generation größer geworden.
Die GPU bei der Wiiu hat natürlich viele Vorteile gegenüber einem G7x bei der PS3 oder dem C1 bei der Xbox360.
GPGPU als eigene Gattung von GPUs würde ich aber nicht hinschreiben, wobei man schon theoretisch trennen kann und sagen so ab hier haben die GPUs Feature X und Y angeboten und ab da konnte ich halbwegs GPGPU auch einsetzen.
Auch ist GPGPU natürlich nicht nur von der GPU abhängig, sondern auch von den Verbindungen untereinander, hier kann wie schon 3 mal geschrieben die Wiiu vielleicht extra Sachen haben, um das ganze etwas praktischer zu lösen.
Auszug aus einem Artikel:
Die GPU ist fast fünfmal größer als die CPU und stellt damit schon ein Extrem in Sachen CPU-GPU-Vergleich im Gamingbereich dar.
Und das klingt, rein von der Größe her, als wäre die GPU der WiiU doch nicht ganz so schwach wie gedacht. :/
33mm² bei 45nm für die CPU (ZWERG!)
156 mm² bei 40nm für die GPU mit ihrem eDRAM. 32mb puhh ich habe es irgendwann mal ausgerechnet, ungefähr 30-40mm² sollten es sein.
Für die GPU alleine würde ich ungefähr 100-120mm² veranschlagen.
Will gar nicht ausrechnen was theoretisch da enthalten sein könnte, aber das ganze ist deutlich potenter als Xbox 360 und PS3 Zeug.
Die GPU hat deutlich mehr Shaderpower, beim Rest sicherlich auch und 32mb eDRAM was echt nice ist.
Achilles Verse im Vergleich zur Current Gen ist die CPU und der Arbeitsspeicher, da hätte Nintendo mit 20 Dollar mehr Produktionskosten wohl locker bis zu 100% mehr Leistung bei gewissen Rechenoperationen bekommen und hätte im Vergleich zur Xbox 360 auch gar keine Probleme gehabt überall besser zu sein.
Ich find es seltsam wie es nach wie vor keine genauen Erklärungen gibt. (oder ich finde sie nicht, was wohl eher der Fall sein wird.

)
Naja, wie das ganze funktioniert wissen nur die Entwickler und die dürfen ohne Nintendos Erlaubnis keine technischen Daten herausrücken.
Wir bekommen Infos nur von Hackern und Leuten die Bekannte haben und etwas andeuten oder gar mal verraten, was nicht nachverfolgbar ist.