Raytracing in der Series X Hardware

Alles rund um Microsofts XBS kann hier diskutiert werden.

Moderatoren: Moderatoren, Redakteure

Antworten
BigSpiD
Beiträge: 622
Registriert: 14.05.2008 20:53
Persönliche Nachricht:

Raytracing in der Series X Hardware

Beitrag von BigSpiD »

In der GameStar gibts aktuell einen Artikel (Heft) über die HW der Series X mit der Angabe, dass pro CU (Computing Unit, die Series X hat 52), 4 Texture Shader und 4 Raytracingkerne zur Verfügung stehen. Pro CU können also 4 pro Takt angesprochen werden (entweder 4x Raytracing Core, 4x Texture Shader, oder 2xRT, 2x TextureS etc.).
Der GPU Takt liegt bei 1825 MHz.


Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.


Insgesamt liegt also die Anzahl der möglichen angesteuerten Raytracingkerne bei der XSX bei bis zu 208 pro Takt, verglichen zu den 72 der RTX 2080 Ti...und wir wissen wie mäßig die Raytracinperformance der 2080 Ti ist.

Pro Sekunde schafft die XSX also bis zu knapp 380.000 Raytracing-Rechenoperationen.
Die RTX 2080 Ti kommt auf etwa 111.200 pro Sekunde. Selbst wenn also nur jeden zweiten Takt die RT-Kerne von der XSX genutzt werden, liegt die Anzahl der Berechnungen pro Sekunde noch 71% über der Raytracingperformance der RTX 2080 Ti.

Bei den Berichten der RTX 3080 sieht es dagegen deutlich besser aus.

Nun zu meiner Frage, hat jemand die Info zur Anzahl der SMs bei der RTX 3080 und wieviele Raytracingcores pro SM verbaut sind?

Im Gegensatz zur RTX20xx Reihe erwarte ich dass eine brauchbare Raytracingpower von der XSX gestemmt werden kann, anstatt nur homöopathisch ein paar Effektchen mit mieser Performance abzuliefern. Der Vergleich zur RTX 3080 wäre allerdings interessant.

Mir ist natürlich bewusst, dass ich zwei unterschiedliche Hardwarelösungen der Raytracingkerne miteinander vergleiche. Wie sich die Performance schlussendlich schlägt, kann nur ein fundierter Test bei dem gleichen Spiel auf den unterschiedlichen Plattformen zeigen (*hust* Cyberpunk). Finde aber an der Stelle die technische Diskussion interessant.
Benutzeravatar
Flux Capacitor
Beiträge: 3082
Registriert: 20.09.2016 12:49
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von Flux Capacitor »

BigSpiD hat geschrieben: 19.09.2020 18:12 In der GameStar gibts aktuell einen Artikel (Heft) über die HW der Series X mit der Angabe, dass pro CU (Computing Unit, die Series X hat 52), 4 Texture Shader und 4 Raytracingkerne zur Verfügung stehen. Pro CU können also 4 pro Takt angesprochen werden (entweder 4x Raytracing Core, 4x Texture Shader, oder 2xRT, 2x TextureS etc.).
Der GPU Takt liegt bei 1825 MHz.


Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.
Du kannst es nicht 1:1 vergleichen, genau wegen deinem Beispiel! Anscheinend - gemäss aktuellen Infos - beruht AMDs Ray Tracing auf den CUs, welche entweder/oder können. Dies bedeutet dass es keine eigentlichen, dedizierten RT Kerne sind, sondern einfach Kerne die auch RT können.

Was der Series X also zu gute kommt ist, dass sie mit 52 CUs grundsätzlich mehr Stauraum für RT Effekte hat, im Gegensatz zur PS5. Wenn also ein Spiel 1:1 die gleiche Performance auf PS5 und Series X hat und man - theoretisch - davon ausgeht dass bei der PS5 um die 15 Kerne für das RT beschäftigt sind, dann bleiben dort 21 CUs übrig. Bei der der Series X wären es ganze 37 CUs übrig. Also nur als Gedankenspiel. Evtl. performt die PS5 auch etwas besser wegen dem schnelleren Takt und braucht dann "nur" 10 Kerne für das RT während die Series X 12 aufwerfen muss.

Grundsätzlich ist nVidia was RT angeht also nach wie vor interessanter da man auch wirklich Hardware rein für diesen Zweck auf den GPUs hat, aber der Ansatz von AMD dafür universeller. Zumindest soweit ich den ganzen Tech-Talk der letzten Wochen verstanden habe. :mrgreen:
i am not crazy, i just dont give a fuck! (Night of the Comet - 1984)
BigSpiD
Beiträge: 622
Registriert: 14.05.2008 20:53
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von BigSpiD »

Ja stimmt allerdings, wobei die GPU Frequenz der PS5 nicht viel retten kann, da der hohe Wert nur im Boost zur Verfügung steht. Also bei rechen- und speicherintensiven Szenen wird also der Takt zwangsläufig nicht gehalten werden können, da das Energiebudget fest ist. Also wirklich intensive Szenen, in denen normalerweise „der Lüfter hoch dreht“ werden bei der PS5 durch eine niedrigere Auflösung und Qualität abgedämpft. Ist natürlich angenehmer für die Lautstärke und Hitzeentwicklung der Konsole, aber nicht zu einem Preis den ich angemessen finde (Praxistests werden es zeigen müssen).

Auch nicht in jeder Spielszene ist es nötig die geballte Raytracingpower auszuschöpfen, daher ist der variable Ansatz von AMD gar nicht verkehrt, was den Stromverbrauch betrifft. Da hat Nvidia in der aktuellen Gen leider geschlampt (ich weiß jetzt kommt wieder Leistung pro Watt blabla, aber man benötigt dennoch ein viel stärkeres Netzteil und der Stromverbrauch ist einfach deutlich höher).

Was aber allein rechnerisch deutlich wird, ist dass Die RDNA2 Architektur effizienter arbeitet in Sachen Raytracing und Texturshader, als Pascal von Nvidia. Mich würde es nur für Ampere interessieren, da ich hier noch keine Zahlen finden konnte. Denn den Leistungssprung von Pascal -> Ampere kennen wir...dann könnte sich daraus ableiten, wie die XSX performt.

Man kann aber jetzt schon sagen, dass Raytracing hier kein PR-Stunt ist, wie bei der RTX2000 Reihe.
yopparai
Beiträge: 19578
Registriert: 02.03.2014 09:49
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von yopparai »

Pascal und Raytracing? :Kratz:

Ich mein, das geht zwar mit ein paar Tricks, aber die Architektur hat doch gar keine Hardware dafür, klar ist das nicht effizient. Sicher dass du nicht eine der Architekturen zwischen Pascal und Ampere meinst, also Volta oder Turing?
BigSpiD
Beiträge: 622
Registriert: 14.05.2008 20:53
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von BigSpiD »

yopparai hat geschrieben: 25.09.2020 23:59 Pascal und Raytracing? :Kratz:

Ich mein, das geht zwar mit ein paar Tricks, aber die Architektur hat doch gar keine Hardware dafür, klar ist das nicht effizient. Sicher dass du nicht eine der Architekturen zwischen Pascal und Ampere meinst, also Volta oder Turing?
Öh ich weiß nicht was für einen Wurm ich im Kopf hatte, aber du hast natürlich Recht :D Hab die falschen genannt.
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von OchsvormBerg »

Flux Capacitor hat geschrieben: 24.09.2020 08:02
BigSpiD hat geschrieben: 19.09.2020 18:12 In der GameStar gibts aktuell einen Artikel (Heft) über die HW der Series X mit der Angabe, dass pro CU (Computing Unit, die Series X hat 52), 4 Texture Shader und 4 Raytracingkerne zur Verfügung stehen. Pro CU können also 4 pro Takt angesprochen werden (entweder 4x Raytracing Core, 4x Texture Shader, oder 2xRT, 2x TextureS etc.).
Der GPU Takt liegt bei 1825 MHz.


Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.
Du kannst es nicht 1:1 vergleichen, genau wegen deinem Beispiel! Anscheinend - gemäss aktuellen Infos - beruht AMDs Ray Tracing auf den CUs, welche entweder/oder können. Dies bedeutet dass es keine eigentlichen, dedizierten RT Kerne sind, sondern einfach Kerne die auch RT können.
Vollkommen richtig, zumal man überhaupt noch nicht sagen kann wie sich die CUs der Series X zu den dedizierten Raytracing-Kernen von Nvidia verhalten. Vllt. leistet 1 RT Core auf der RTX 2080Ti so viel wie 2 Kerne in der Series X. Da Nvidia dedizierte RT Kerne verbaut, lässt sich vermuten, dass diese effizienter sind.
Benutzeravatar
KalkGehirn
Beiträge: 1843
Registriert: 26.10.2014 22:05
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von KalkGehirn »

Super Nintendo - PlayStation3 - PlayStation4 - Mega Drive - Sega Saturn


Benutzeravatar
Flux Capacitor
Beiträge: 3082
Registriert: 20.09.2016 12:49
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von Flux Capacitor »

Dass die Series S Ray Tracing in diesem Umfang kann erstaunt schon.
i am not crazy, i just dont give a fuck! (Night of the Comet - 1984)
Benutzeravatar
KalkGehirn
Beiträge: 1843
Registriert: 26.10.2014 22:05
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von KalkGehirn »



Bei watch dogs legion mit RT und dynamischen 4k, leicht unterhalb einer rtx2060s
Ohne RT bei Gears of War, fast auf dem Level einer 2080!
Find ich alles schon sehr beeindruckend für eine 500€ Konsole.
Die "S" leider wie befürchtet mit Auflösungen unter 1080p :?
Super Nintendo - PlayStation3 - PlayStation4 - Mega Drive - Sega Saturn


GamerOTY
Beiträge: 10
Registriert: 28.11.2020 00:59
User ist gesperrt.
Persönliche Nachricht:

Re: Raytracing in der Series X Hardware

Beitrag von GamerOTY »

Zu bedenken ist, dass Spiele für Konsolen sehr viel optimierter sind und deshalb mehr leistung bringen könnten als die RTX 20er Serien.
Antworten