Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von Locuza »

mrekim hat geschrieben: Zunächst kein i7 octo core sondern ein quadcore mit dual threading. Aber selbst damit hast du, wenn wir von Flops reden, natürlich recht. Aber nenne mir ein Spiel welches überhaupt mehr als 2 Threads sinnvoll nutzt? 8 langsame Jaguar Kerne bieten eine bessere Interprozesskommunikation und diese 8 Kerne werden dann auch komplett benutzt werden.
(Siehe CELL in dieser Generation, MultiPlattform Titel nutzen auch nur 3-4 der (langsameren) cores und sind daher meist schlechter anzuschauen als die 360 versionen- Exklusive Titel hingegen spielen da in einer anderen Liga - stichwort : God of War 3)
Dazu rechne ich noch fest mit eigenen DSP (Sound) und Physik Prozessoren um die CPU zu entlasten. Aber im NeoGaf Thread wurden auch mehrfach IBM Power7 Kerne in Betracht gezogen. Die würden dann ebenfalls in einer ganz anderen Liga spielen.
War nicht im ersten Dev-Kit ein Octo-Core Sandy-Bridge Xeon mit deaktivierten SMT? Und einer 570 GTX?
Wenn AMD gerüchteweise die Hardware stellt, wenigstens bei der GPU, dann macht eine 680 GTX im Devkit irgendwie wenig Sinn, bei einer 570 GTX verstehe ich das ja noch, GCN war vielleicht zu weit entfernt und man drückte den Programmierern 1D-Shader in die Hand und kein VLIW-Zeug.
Aber später dann wieder eine Geforce?
Welcher Sinn steckt da dahinter?

Bezüglich der CPU-Cores, also bei der Xbox werden 6 Threads schon sehr gut genutzt.
Was auf dem PC ist, ist ja auch egal. ( Und es gibt auch viele Spiele die von 4 Cores Gebrauch machen, einige sogar auch von 6, RUSE, Resident Evil 5, 6 wohl ganz sicher auch)

Fest mit einem DSP reche ich jedenfalls nicht, die CPUs können das weiterhin halbwegs erledigen und GCN sollte das ebenfalls können, welcher wohl auch die Physik zu Teilen berechnen wird.
Bei der Last-Gen hat man sich jedenfalls dagegen entschieden, obwohl die Vorgänger welche hatten.
Benutzeravatar
ZackeZells
Beiträge: 5959
Registriert: 08.12.2007 13:09
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von ZackeZells »

Locuza hat geschrieben: War nicht im ersten Dev-Kit ein Octo-Core Sandy-Bridge Xeon mit deaktivierten SMT? Und einer 570 GTX?
Wenn AMD gerüchteweise die Hardware stellt, wenigstens bei der GPU, dann macht eine 680 GTX im Devkit irgendwie wenig Sinn, bei einer 570 GTX verstehe ich das ja noch, GCN war vielleicht zu weit entfernt und man drückte den Programmierern 1D-Shader in die Hand und kein VLIW-Zeug.
Aber später dann wieder eine Geforce?
Welcher Sinn steckt da dahinter?

Bezüglich der CPU-Cores, also bei der Xbox werden 6 Threads schon sehr gut genutzt.
Was auf dem PC ist, ist ja auch egal. ( Und es gibt auch viele Spiele die von 4 Cores Gebrauch machen, einige sogar auch von 6, RUSE, Resident Evil 5, 6 wohl ganz sicher auch)

Fest mit einem DSP reche ich jedenfalls nicht, die CPUs können das weiterhin halbwegs erledigen und GCN sollte das ebenfalls können, welcher wohl auch die Physik zu Teilen berechnen wird.
Bei der Last-Gen hat man sich jedenfalls dagegen entschieden, obwohl die Vorgänger welche hatten.

??? *Bahnhof* Tuuuut-tuuuuut

Ruhig brauner wird alles wieder gut :?:
Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von Locuza »

ZackeZells hat geschrieben: ??? *Bahnhof* Tuuuut-tuuuuut

Ruhig brauner wird alles wieder gut :?:
This isn't even my final knowledge. 8)
Benutzeravatar
ZackeZells
Beiträge: 5959
Registriert: 08.12.2007 13:09
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von ZackeZells »

Locuza hat geschrieben:
ZackeZells hat geschrieben: ??? *Bahnhof* Tuuuut-tuuuuut

Ruhig brauner wird alles wieder gut :?:
This isn't even my final knowledge. 8)


Das glaub ich dir aufs Wort...hier nimm ne Lakritzschnecke *anbiet* - Ich mach mal Feierabend :)
mrekim
Beiträge: 20
Registriert: 10.05.2010 15:07
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von mrekim »

Locuza hat geschrieben:
mrekim hat geschrieben: Zunächst kein i7 octo core sondern ein quadcore mit dual threading. Aber selbst damit hast du, wenn wir von Flops reden, natürlich recht. Aber nenne mir ein Spiel welches überhaupt mehr als 2 Threads sinnvoll nutzt? 8 langsame Jaguar Kerne bieten eine bessere Interprozesskommunikation und diese 8 Kerne werden dann auch komplett benutzt werden.
(Siehe CELL in dieser Generation, MultiPlattform Titel nutzen auch nur 3-4 der (langsameren) cores und sind daher meist schlechter anzuschauen als die 360 versionen- Exklusive Titel hingegen spielen da in einer anderen Liga - stichwort : God of War 3)
Dazu rechne ich noch fest mit eigenen DSP (Sound) und Physik Prozessoren um die CPU zu entlasten. Aber im NeoGaf Thread wurden auch mehrfach IBM Power7 Kerne in Betracht gezogen. Die würden dann ebenfalls in einer ganz anderen Liga spielen.
War nicht im ersten Dev-Kit ein Octo-Core Sandy-Bridge Xeon mit deaktivierten SMT? Und einer 570 GTX?
Wenn AMD gerüchteweise die Hardware stellt, wenigstens bei der GPU, dann macht eine 680 GTX im Devkit irgendwie wenig Sinn, bei einer 570 GTX verstehe ich das ja noch, GCN war vielleicht zu weit entfernt und man drückte den Programmierern 1D-Shader in die Hand und kein VLIW-Zeug.
Aber später dann wieder eine Geforce?
Welcher Sinn steckt da dahinter?

Bezüglich der CPU-Cores, also bei der Xbox werden 6 Threads schon sehr gut genutzt.
Was auf dem PC ist, ist ja auch egal. ( Und es gibt auch viele Spiele die von 4 Cores Gebrauch machen, einige sogar auch von 6, RUSE, Resident Evil 5, 6 wohl ganz sicher auch)

Fest mit einem DSP reche ich jedenfalls nicht, die CPUs können das weiterhin halbwegs erledigen und GCN sollte das ebenfalls können, welcher wohl auch die Physik zu Teilen berechnen wird.
Bei der Last-Gen hat man sich jedenfalls dagegen entschieden, obwohl die Vorgänger welche hatten.
Mit dem XEON hast du recht. Meine Schuld.
Ich weiß nicht wie weit AMD zu dieser Zeit mit GCN war und ob überhaupt schon klar war, dass AMD die GPU liefert aber ich vermute dass das Ziel 28 NM (Strom und Hitze) und 1D bzw. SI(MD/T) Shader. Man könnte auch vermuten dass MS AMD von der ausschließlichen Benutzung von unified shadern weggetrieben hat - das wäre aber Spekulation.
Ich vermute einfach mal auch, dass Herstellerspezifische Features dabei gar keine große Rolle gespielt haben sondern erst einmal nur die reine Single bzw. double precision Leistung.
Ein DSP sehe ich als gegeben falls wirklich Jaguar Kerne zum Einsatz kommen. Das wäre verschenkte Performance - vor allem bei den niedrigen Preisen für DSPs.
Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von Locuza »

mrekim hat geschrieben: Ich weiß nicht wie weit AMD zu dieser Zeit mit GCN war und ob überhaupt schon klar war, dass AMD die GPU liefert aber ich vermute dass das Ziel 28 NM (Strom und Hitze) und 1D bzw. SI(MD/T) Shader.

Ich vermute allerdings schon. Mit nvidia hat man es scheinbar nicht so toll beim Zusammenzuarbeiten.
Verträge sind härter, Nvidia gibt sich einfach selbstbewusster und mitunter arroganter und machen weniger Zugeständnisse.
AMD ist auch in einer schlechteren Position, da sind billige Verträge für MS sicher leichter zu auszuhandeln.
Die GPUs sind ja denen von Nvidia auch absolut ebenbürtig, dass ist nicht so wie bei Intel, dass wenn man sich auf "billig" Zeug einlässt wenig Performance und Hitze gegen das Gesicht bekommt.
Bei den geleakten Folien von MS stand auch überall ATI.
Würde mich schwer wundern, wenn man es anfangs komplett offen gelassen hat.
Man könnte auch vermuten dass MS AMD von der ausschließlichen Benutzung von unified shadern weggetrieben hat - das wäre aber Spekulation.
Du meinst hier VLIW-Shader und keine unified shader?
Ich vermute einfach mal auch, dass Herstellerspezifische Features dabei gar keine große Rolle gespielt haben sondern erst einmal nur die reine Single bzw. double precision Leistung.
Also beim ersten Dev-Kit vermute ich mal, dass hier grob die Funktionsweise stimmen sollte, also 1D SIMD und die groben Compute-Fähigkeiten.
Da waren AMDs VLIW Karten stark anders aufgebaut und bei Compute schwach.
Bei einer 680 GTX sehe ich aber keinen Sinn, die Karte kam viel später, ist von der Konkurrenz und unterscheidet sich auch zu gewissen Teilen von GCN.
DP FLOPs hat GK104 fast gar keine und bei SP wäre ein Pitcairn XT auch "nur" ~500 FLOPs entfernt.
Für mich jedenfalls macht das keinen Sinn.
Ein DSP sehe ich als gegeben falls wirklich Jaguar Kerne zum Einsatz kommen. Das wäre verschenkte Performance - vor allem bei den niedrigen Preisen für DSPs.
Ich habe leider nie wirklich in Erfahrung bringen können, wie viel besser DSPs bei solchen Berechnungen sind.
mrekim
Beiträge: 20
Registriert: 10.05.2010 15:07
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von mrekim »

AMD's unified shader basieren doch auf einer VLIW Architektur?
Ich kann mich ganz einfach auch mit der 680er täuschen und diese gerade mit der 580 verwechseln. Irgendwie ergibt das im Licht deiner Ausführungen mehr Sinn. Vor allem aufgrund der Tatsache dass die GTX 680 noch gar nicht so lange auf dem Markt ist.

DSPs können soweit ich weiß bei guter Integration einen halben bis ganzen CPU Kern ersetzen und dabei mehr parallele Stimmen bieten.
Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von Locuza »

mrekim hat geschrieben:AMD's unified shader basieren doch auf einer VLIW Architektur?
Ich kann mich ganz einfach auch mit der 680er täuschen und diese gerade mit der 580 verwechseln. Irgendwie ergibt das im Licht deiner Ausführungen mehr Sinn. Vor allem aufgrund der Tatsache dass die GTX 680 noch gar nicht so lange auf dem Markt ist.

DSPs können soweit ich weiß bei guter Integration einen halben bis ganzen CPU Kern ersetzen und dabei mehr parallele Stimmen bieten.
Das mit den unified shadern habe ich bei deiner Ausführung gerade gar nicht verstanden.
Also unified shader sind ja ein echter Segen, von diesem Konzept würde man niemand wegtreiben, aber von dem VLIW-Konzept. (AMDs unified shader basieren aber natürlich auf einer VLIW-Architektur, die man jetzt zu einer SIMD-Architektur mit unified shadern umgewandelt hat)

Aber davon hat MS sicher nicht AMD weggedrückt.
GCN war von Anfang an mit SIMD (1D) geplant, dass war die GPU Architektur die man von Grund auf mit den CPU-Architekten von AMD gemacht hat, nachdem diese ATI aufgekauft haben.
Es war für alle klar, dass VLIW einfach ein kompliziertes compiling hat und die Einheiteneffizienz mit immer mehr ALUs sinkt.
Für Computing ist es auch nicht ideal. (Wobei für SP Floating-Point und geeigneten Brute-Force Verfahren VLIW das wohl beste ist)

Bei den DSPs habe ich lesen können, dass Audiostreams relativ parallellastig sind, was für CPUs natürlich nicht optimal ist.
Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Kommentar

Beitrag von Locuza »

TaLLa hat geschrieben: Schlechtere Treiber, langsamere Chips aktuell, kein PhysX, weniger Gameoptimierung: Auch ich würde nie eine AMD holen, günstiger hin oder her.
Für die "normalen" Consumer sind die Treiber eig. ausgereift.
Muss aber natürlich zugeben, dass man durchschnittlich mit einer AMD wohl mehr Probleme haben könnte.
PhysX ist halt proprietär von Nvidia, muss man bei AMD von der CPU berechnen lassen, was mittlerweile anständig funktioniert, früher ging das nicht, weil Nvidia natürlich so toll war und bei alten PhysX Versionen für den PC die Berechnungen per x87 laufen lies, womit einfach keine Performance herauskommt. Mittlerweile wird das anständig über SSE berechnet.
Aber für PhysX High usw. bräuchte man am besten wohl weiterhin eine GPU.
Es besteht aber auch die Möglichkeit eine AMD zu haben und eine Nvidia einzubauen und die PhysX berechnen zu lassen.
Weniger Gameoptimierung ist jetzt was genau? Performance, Bugs, zusätzliche Features, alles gemeinsam?
Randall Flagg
Beiträge: 1808
Registriert: 25.03.2009 20:31
Persönliche Nachricht:

Re: Kommentar

Beitrag von Randall Flagg »

TaLLa hat geschrieben:
Locuza hat geschrieben:
SectionOne hat geschrieben: Auch die GraKa kann was, auch wenn ich beim Desktop PC nie zu ner AMD greifen würde ;-)
Aus Interesse, wieso nicht? :)
Schlechtere Treiber, langsamere Chips aktuell, kein PhysX, weniger Gameoptimierung: Auch ich würde nie eine AMD holen, günstiger hin oder her.
Ich benutze nun seit 2005 ATI-Karten, angefangen habe ich mit einer Radeon 9600 pro. Ich habe noch nie in meinem Leben etwas von schlechten Treibern erlebt.
Aber gut, mag ich ein Einzelfall sein. Genauso wie die Leute, bei denen GeForce-Karten durch Überhitzen nicht in Flammen aufgehen.

Außerdem bietet AMD auch eine PhysX-Alternative, die nur die verwendet wird, weil nvidia den Firmen ordentlich Geld gibt, damit das auf PhysX ausrichten. Ich frage mich außerdem gerade, was du mit Gameoptimierung meinst.
Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Kommentar

Beitrag von Locuza »

Randall Flagg hat geschrieben: Außerdem bietet AMD auch eine PhysX-Alternative, die nur die verwendet wird, weil nvidia den Firmen ordentlich Geld gibt, damit das auf PhysX ausrichten.
AMD hat keine eigene Physik-Middleware und bietet somit auch keine Alternative an.
AMD engagiert sich aber bei der offenen Physik-Middleware Bullet, die in einigen Monaten wohl als Version 3.0 released wird und damit vielleicht einen praktikablen Aufschwung bekommt.

Das Nvidia irgendein Studio besticht ist dann natürlich eine phantasievolle Unterstellung deinerseits. :wink:
AtzenMiro
Beiträge: 2333
Registriert: 16.09.2012 21:50
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von AtzenMiro »

Nvidia testet die Spiele noch selbst und gibt den Entwicklern direkt Feedback (mit genauen Quellcodeangaben etc.), wo es zu Problemen kommen könnte etc. Man hat es ja nun schon oft genug erlebt, dass gerade die AMD-Kartenbesiter bei vielen Releases doch mit Einbüßen zu leben hatten, bis erst ein neuer Treiber die Probleme behoben hat. Teilweise führt die Treiber-Politik (jeden Monat ein Treiber) von AMD dazu, dass Treiber Verschlimmbesserungen bringen und überall im Netz davon abgeraten wird den Treiber zu laden. Es gibt einfach viele Faktoren, die für den Endkunden nicht gerade prickelnd sind.

Nvidia-Karten sind zwar teurer, dafür ist man einfach auf der "sicheren" Seite.

Ich setze auch nur noch auf Nvidia und Intel. ATI/AMD kommt mir nicht mehr unter die Haube.
Easy Lee
Beiträge: 5375
Registriert: 06.08.2008 17:03
Persönliche Nachricht:

Kommentar

Beitrag von Easy Lee »

Wäre gut, wenn die Konsolen mehr Power als ein PC hätten. Erstens weil das einfach den nötigen Wow-Faktor mitbringen würde und zweitens muss so eine Plattform ja ein paar Jahre aktuell sein.
Benutzeravatar
Locuza
Beiträge: 695
Registriert: 29.12.2010 01:34
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von Locuza »

AtzenMiro hat geschrieben:Man hat es ja nun schon oft genug erlebt, dass gerade die AMD-Kartenbesiter bei vielen Releases doch mit Einbüßen zu leben hatten, bis erst ein neuer Treiber die Probleme behoben hat. Teilweise führt die Treiber-Politik (jeden Monat ein Treiber) von AMD dazu, dass Treiber Verschlimmbesserungen bringen und überall im Netz davon abgeraten wird den Treiber zu laden. Es gibt einfach viele Faktoren, die für den Endkunden nicht gerade prickelnd sind.
.
Es gab auch einen schönen Far Cry 3 Bug für viele Nvidia Besitzer ;)
Gerade gibt es mit dem 310.90 einen cold boot bug (selber bei RAGE erlebt, mit Hängern, reset und alles drum und dran).
Bei Saboteur und GTA4 hat es die ATI-Besitzer aber böse erwischt.
Ich will es aber deswegen nicht verallgemeinern.

Bei AMD ist übrigens die Treiber-Politik mittlerweile anders.
Früher gab es jeden Monat ein WHQL Treiber, was gerade glaube ich immer noch so ist, allerdings macht man es ebenso wie Nvidia und bringt ständig Beta-Treiber und Hotfixes raus.
Das heißt es ist nicht so wie früher, dass man immer ein Monat warten musste bis etwas funktioniert, sondern zügiger eine Lösung bekommt.

@ 8Bitlegend

Also mehr Rohleistung ist definitiv unmöglich, aber mehr Ausgangsleistung möglich.
deathproof
Beiträge: 163
Registriert: 18.05.2011 22:27
Persönliche Nachricht:

Re: Xbox 360: Nachfolger mit Radeon 8800er-Grafik?

Beitrag von deathproof »

Ach ja Nvidea ist ja auch so viel besser weil?
Ich hab eine Nvidia GTX 8800 in meinem Rechner und was soll ich sagen, ich hatte damit ein großes Problem. Nach dem Update von WoT auf die version 8.0 hat sich die GTX 8800 immer wieder abgeschaltet weil sie zu heiß wurde. Es wurde erst mit der der WoT version 8.2 besser.
Nach Nvidia Updates hab ich auch immer wieder aussetzer der Maus, sie bekommt keinen Strom, gut auch bei WoT aber auch schon mal eine ganze Zeit im Internetbrowser.
Nie wieder Nvidia sag ich deshalb.