Durch die Öffnung hin zu Indieentwicklern wird es eine deutlich größere Vielfalt geben. Die großen Studios hingegen, sollten sie weiterhin die Erwartung der Bombastgrafik und Plattformauszreiung befriedigen wollen, werden die Kosten noch weiter steigen und sich diese Titel dann locker 10 Mio mal verkaufen müssen, bis sie rentabel und damit wirtschaftlich tragbar, das Überleben der Firma zu sichern in der Lage sind.datendieb hat geschrieben:im endeffekt völlig wurst solang die spiele wieder nur durchschnittskost sind.
PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstärker als PCs"
Moderatoren: Moderatoren, Redakteure
- greenelve
- Beiträge: 48763
- Registriert: 07.04.2009 19:19
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
- danke15jahre4p
- Beiträge: 16763
- Registriert: 21.04.2006 16:18
- User ist gesperrt.
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
@greenelve
es geht mir in keinsterweise darum der ps4 irgendwelche quantensprünge in k.i.-berechnung oder grafik vorrausszusagen, es geht mir einzig allein um den technischen aspekt, um die vorteile die das design der ps4 mitsichbringt!
was die entwickler letztendlich daraus machen, steht auf einem anderen blatt papier!
greetingz
es geht mir in keinsterweise darum der ps4 irgendwelche quantensprünge in k.i.-berechnung oder grafik vorrausszusagen, es geht mir einzig allein um den technischen aspekt, um die vorteile die das design der ps4 mitsichbringt!
was die entwickler letztendlich daraus machen, steht auf einem anderen blatt papier!
greetingz
- Levi
- Beiträge: 44988
- Registriert: 18.03.2009 15:38
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
kurz und knapp @ leifman:
doch es gibt inzwischen einen einheitlichen Standard. Sowohl DX sieht den vor, als auch OpenGL (über OpenCL) ...
und wie gesagt: jede auch nur im ansatz "moderne" (wie gesagt ~5 Jahre) Karte unterstützt das.
und natürlich sind die Latenzen etwas höher ... aber nicht "unbrauchbar" ... sry. Aber du dichtest der PS4 hier Wunderwerke an, die sie einfach nicht vom Rest abhebt.
Nochmal: Die PS4 wird ein verdammt schickes Stück Technik, welches mit seinen gefühlt übertriebenen 8GB GDDR5 Speicher zumindest keine Speichersorgen in absehbarer Zeit haben wird. Aber was du hier sonst so versuchst hervorzuheben ist einfach nichts besonderes. du siehst hier Strahlende Schlösser, wo keine sind.
doch es gibt inzwischen einen einheitlichen Standard. Sowohl DX sieht den vor, als auch OpenGL (über OpenCL) ...
und wie gesagt: jede auch nur im ansatz "moderne" (wie gesagt ~5 Jahre) Karte unterstützt das.
und natürlich sind die Latenzen etwas höher ... aber nicht "unbrauchbar" ... sry. Aber du dichtest der PS4 hier Wunderwerke an, die sie einfach nicht vom Rest abhebt.
Nochmal: Die PS4 wird ein verdammt schickes Stück Technik, welches mit seinen gefühlt übertriebenen 8GB GDDR5 Speicher zumindest keine Speichersorgen in absehbarer Zeit haben wird. Aber was du hier sonst so versuchst hervorzuheben ist einfach nichts besonderes. du siehst hier Strahlende Schlösser, wo keine sind.
-
Hoebelix
- Beiträge: 112
- Registriert: 11.11.2004 14:31
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
EaZy187 hat geschrieben: edit:1 bis 2 heroes meinten auch crysis 3 sähe jetzt schon besser aus ABER zu welchem preis?!?!?
du benötigst eine 680 ( wenn nicht sogar 2 ) um crysis auf höchst zu spielen (bei 1920x1080).Die 680 kosten im schnitt immernoch über 400 €.
Totaler Blödsinn.
Ich spiele Crysis 3 auch alles auf Max mit 4x SSAA in 1920x1080.
Und ich besitze NUR eine übertaktete GTX570 und 8 GB DDR3-RAM und einen (uralten :wink: ) i7 875K...
Habe fast durchgehend über 35 FPS. Nicht immer alles glauben wenn man es selbst nicht getestet hat!
- danke15jahre4p
- Beiträge: 16763
- Registriert: 21.04.2006 16:18
- User ist gesperrt.
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
@levi
ja, gpu computing gibt es schon lange, ändert nur nix an der tatsache, dass es bis heute in games nur bruchstückhaft eingesetzt wurde!
ich empfehle dir diesen artikel von tomshardware, dort kommen entwickler wie DICE zu wort lange bevor die ps4 vorgestellt wurde, die vorherrschende meinung ist: gpu computing ist der nächste schritt der entwicklung!
greetingz
ja, gpu computing gibt es schon lange, ändert nur nix an der tatsache, dass es bis heute in games nur bruchstückhaft eingesetzt wurde!
ich empfehle dir diesen artikel von tomshardware, dort kommen entwickler wie DICE zu wort lange bevor die ps4 vorgestellt wurde, die vorherrschende meinung ist: gpu computing ist der nächste schritt der entwicklung!
Unfortunately, today’s consoles and the many DirectX 10-era GPUs spread across the market don’t support DirectCompute. This explains part of why there hasn’t been a mad rush to get DirectCompute-based features running in as many apps as possible. Other, more universal features are simply in higher demand. Still, it’s only a matter of time, and our tests show that there’s plenty to anticipate in games, mostly related to visual fidelity.
http://www.tomshardware.com/reviews/dir ... ,3146.html“Going forward,” adds Andersson, “there are many other post-processing, lighting, rendering, and simulation techniques—for example water and particle simulation—that we are interested in experimenting with DirectCompute for. Our goal is to enable both new game play experiences as well as improving performance even further.”
greetingz
Zuletzt geändert von danke15jahre4p am 13.03.2013 14:56, insgesamt 1-mal geändert.
- schefei
- Beiträge: 2969
- Registriert: 09.12.2008 17:31
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Den einzigen Vorteil den ich im Moment bei der PS4 Architektur sehe ist die Möglichkeit das Physik Spielereien wie bei PhysX oder aktuell TressFX auch auswirkung aufs Gameplay haben können, denn seien wir mal ehrlich das die KI so ist wie sie ist liegt nicht an der Leistung.
Es gab schon vor Jahren die Möglichkeit die KI auf die GPU auszulagern.
AMD hat das mit der "March of the Froblins" Techdemo gezeigt, da wird die KI von rund 3000 "Froblins" auf der GPU berechnet (damals auf der HD48xx Serie).
Aber für klassische Spiele wie aktuell Tomb Raider wo Physik nicht mehr als optische Spielerei ist macht es nicht mal einen Unterschied ob man PCIe 2 oder 3 verwendet, obwohl das eine Verdoppelung der Bandbreite bedeutet. In dem Fall werden Laras Haare von der GPU berechnet und sofort gerendert, da muss nichts über PCIe zurück kopiert werden.
PCIe ist aktuell kein Flaschenhals, und bei keinem PS4 Trailer hat man etwas gesehen dass das ändern würde.
Es gab schon vor Jahren die Möglichkeit die KI auf die GPU auszulagern.
AMD hat das mit der "March of the Froblins" Techdemo gezeigt, da wird die KI von rund 3000 "Froblins" auf der GPU berechnet (damals auf der HD48xx Serie).
Aber für klassische Spiele wie aktuell Tomb Raider wo Physik nicht mehr als optische Spielerei ist macht es nicht mal einen Unterschied ob man PCIe 2 oder 3 verwendet, obwohl das eine Verdoppelung der Bandbreite bedeutet. In dem Fall werden Laras Haare von der GPU berechnet und sofort gerendert, da muss nichts über PCIe zurück kopiert werden.
PCIe ist aktuell kein Flaschenhals, und bei keinem PS4 Trailer hat man etwas gesehen dass das ändern würde.
- Levi
- Beiträge: 44988
- Registriert: 18.03.2009 15:38
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
leifman hat geschrieben:@levi
ja, gpu computing gibt es schon lange, ändert nur nix an der tatsache, dass es bis heute in games nur bruchstückhaft eingesetzt wurde!
ich empfehle dir diesen artikel von tomshardware, dort kommen entwickler wie DICE zu wort lange bevor die ps4 vorgestellt wurde, die vorherrschende meinung ist: gpu computing ist der nächste schritt der entwicklung!
http://www.tomshardware.com/reviews/dir ... ,3146.html
greetingz
ja und? genau das sag ich doch: GPU-Computing gibts schon lange, und der PC wird sich freuen, dass es endlich in die Spieleentwicklung Einzug halten wird. Du hattest jedoch gesagt (beabsichtigt oder nicht) dass die PS4 aufgrund dieser Technik dem PC vorraus sein wird. Und das ist schlicht und ergreifend falsch ... der PC wartet schon seit ewigkeiten auf die passende Software. Die Hardware und Schnittstellen gibt es schon lange
Spoiler
Show
leifman hat geschrieben:jo, diese maschine direkt aus der hölle wird jedes "klassisch" programmierte spiel durchnudeln als gäbe es kein morgen mehr, nur was ist wenn, wie es bei der ps4 der fall sein wird, auch die gpu eingesetzt wird um neben grafik auch noch eventuell k.i. oder physik zu berechnen?maho76 hat geschrieben:und auch abseits der ps4 ist und bleibt "der PC" das ultimo, denn wenn ich einen powerbenchmark mache dann mit der maximalkonfig des maximal möglichen, und da stinkt alles andere ab weil ich einen pc auf cray-niveau aufrüsten kann, wenn ich nur genug geld reinstecke (ölkühlungsübertaktet, schnelle laufwerke, experimentelles pram von siemens etc.).
bekommst du so ein system dann auch zusammengefrickelt?
greetingz
wie gesagt: so ein System muss man nicht zusammen frickeln ... sondern so ein System hat jeder, der sich innerhalb der letzten 3 bis 4 Jahre einen rudimentär spieletauglichen PC gekauft hat, schon unterm Tisch zu stehen.
- Locuza
- Beiträge: 695
- Registriert: 29.12.2010 01:34
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Ein Standard bringt dir aber nichts viel, wenn damit zwar Berechnungen möglich werden, aber sie nicht performant ablaufen können.Levi hat geschrieben:kurz und knapp @ leifman:
doch es gibt inzwischen einen einheitlichen Standard. Sowohl DX sieht den vor, als auch OpenGL (über OpenCL) ...
und wie gesagt: jede auch nur im ansatz "moderne" (wie gesagt ~5 Jahre) Karte unterstützt das.
und natürlich sind die Latenzen etwas höher ... aber nicht "unbrauchbar" ... sry. Aber du dichtest der PS4 hier Wunderwerke an, die sie einfach nicht vom Rest abhebt.
Nochmal: Die PS4 wird ein verdammt schickes Stück Technik, welches mit seinen gefühlt übertriebenen 8GB GDDR5 Speicher zumindest keine Speichersorgen in absehbarer Zeit haben wird. Aber was du hier sonst so versuchst hervorzuheben ist einfach nichts besonderes. du siehst hier Strahlende Schlösser, wo keine sind.
Es hilft auch nichts wenn eine 5 Jahre alte GPU das unterstützt, wenn die Latenzen viel höher sind und doch Levi viel höher, so hoch bis zum "unbrauchbar".
Das sind keine Wunderwerke das sind leider Fakten.
Ich habe aber schon einmal einen fetten Text bezüglich klassischem PC geschrieben, einer Xbox 360, einer APU, wie die Wiiu dazu steht und wie es mit einer HSA APU aussieht.
Edit: Da ist er:
http://forum.4pforen.4players.de/viewto ... u#p3549696
- Levi
- Beiträge: 44988
- Registriert: 18.03.2009 15:38
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
das wäre mir aber neu, wenn man für Ki zum Beispiel groß Latenz-Probleme hat. sowas läuft nicht im 60hz oder höher bereich ab. und PhysX (zugegeben hochoptimiert) beweißt auch, dass es selbst für Physik reicht.Locuza hat geschrieben:Ein Standard bringt dir aber nichts viel, wenn damit zwar Berechnungen möglich werden, aber sie nicht performant ablaufen können.Levi hat geschrieben:kurz und knapp @ leifman:
doch es gibt inzwischen einen einheitlichen Standard. Sowohl DX sieht den vor, als auch OpenGL (über OpenCL) ...
und wie gesagt: jede auch nur im ansatz "moderne" (wie gesagt ~5 Jahre) Karte unterstützt das.
und natürlich sind die Latenzen etwas höher ... aber nicht "unbrauchbar" ... sry. Aber du dichtest der PS4 hier Wunderwerke an, die sie einfach nicht vom Rest abhebt.
Nochmal: Die PS4 wird ein verdammt schickes Stück Technik, welches mit seinen gefühlt übertriebenen 8GB GDDR5 Speicher zumindest keine Speichersorgen in absehbarer Zeit haben wird. Aber was du hier sonst so versuchst hervorzuheben ist einfach nichts besonderes. du siehst hier Strahlende Schlösser, wo keine sind.
Es hilft auch nichts wenn eine 5 Jahre alte GPU das unterstützt, wenn die Latenzen viel höher sind und doch Levi viel höher, so hoch bis zum "unbrauchbar".
Das sind keine Wunderwerke das sind leider Fakten.
Ich habe aber schon einmal einen fetten Text bezüglich klassischem PC geschrieben, einer Xbox 360, einer APU, wie die Wiiu dazu steht und wie es mit einer HSA APU aussieht.
das was du an Latenz bei der PS4-Architektur raus holst, gewinnst du durch Rohleistung bei den dahinter steckenden Chips beim PC wieder im gewissen Maße zurück. bzw umgedreht betrachtet kann die Ps4 durch die niedrige Latenz die fehlende Gesamtleistung etwas ausgleichen.
(viele kurze und wenig belastete Wege contra wenige aber dafür schwerer beladene Wege um bei Metaphern zu bleiben)
Die Geschichten, die für eine GPU-Auslagerung tauglich sind, sind meist so oder so sehr gut "Auslagerbare"-Arbeiten, bei denen eine gewisse Latenz hin zum Hauptprozess zu verkraften ist. (Aus SoftwareSicht-Betrachtet) ... vielleicht ist es aus Hardwaresicht um ein vielfaches Effektiver ... aus Softwaresicht herrscht jedoch keine Notwendigkeit des Takt-Weisen Datenaustausches. Was die vermeintlichen Nachteile relativ stark eindampfen lässt.
€dit: passt praktischerweise auch auf dein alten Post
nochmal das Kondensat: Ja, Physik, Ki, restliche Simulation müssen miteinander Kommunizieren, und kleinere Latenz ist natürlich zu begrüßen. JEDOCH weder fallen bei der Kommunikation besonders viele Daten an (position der Ki-Leute und Objekte ... dafür werden im Normalfall auch nur vereinfachte Modelle benutzt.) zum anderen ist hier keine All zu hohe Taktung von nöten. (selbst wenn man nur jeden fünften Frame die neuen Positionen übermittelt, und den rest Interpoliert, wäre das Ergebniss immernoch ansehnlich.)
Zuletzt geändert von Levi am 13.03.2013 15:21, insgesamt 1-mal geändert.
- Locuza
- Beiträge: 695
- Registriert: 29.12.2010 01:34
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Da ist nicht zu begrüßen, dass ist einfach notwendig.
Es müssen oft viele Daten verschoben werden und gerade bei kleinen Datenpaketen ist es schlimm, wenn die Latenz deutlich zu hoch ist.
Man sieht ja bei PhysX ganz gut wie viele FPS man hat, wenn die GPU 3D-Rendering betreibt und die Partikel berechnet und wie viele FPS man hat, wenn die CPU die Partikel berechnet.
Und genau solche Ergebnisse und noch kritischere wird man erhalten, wenn man einen klassischen PC mit dem HSA-System vergleicht.
Ich habe auch schon gesagt, bei Effect-Physics und klassischem 3D-Rendering ist es egal und limitiert auch deutlich weniger bis kaum.
Zweitens muss auch nicht erwartet werden, dass bei der PS4 alles von der GPU berechnet wird, denn so ein Rechenmonster ist sie natürlich nicht.
Stellt sich die Frage wie portiert man ein Spiel auf dem PC?
Wegen den Latenzen kannst du gewisse Algorithmen voll vergessen, die Möglichkeit würde bestehen, dass von der CPU erledigen zu lassen, wenn sie noch genug Power hat.
Ein großes Fragezeichen darüber, wie sich das ganze entwickeln wird und wie die Devs ihre Spiele in Zukunft aufbauen werden.
Es müssen oft viele Daten verschoben werden und gerade bei kleinen Datenpaketen ist es schlimm, wenn die Latenz deutlich zu hoch ist.
Man sieht ja bei PhysX ganz gut wie viele FPS man hat, wenn die GPU 3D-Rendering betreibt und die Partikel berechnet und wie viele FPS man hat, wenn die CPU die Partikel berechnet.
Und genau solche Ergebnisse und noch kritischere wird man erhalten, wenn man einen klassischen PC mit dem HSA-System vergleicht.
Ich habe auch schon gesagt, bei Effect-Physics und klassischem 3D-Rendering ist es egal und limitiert auch deutlich weniger bis kaum.
Zweitens muss auch nicht erwartet werden, dass bei der PS4 alles von der GPU berechnet wird, denn so ein Rechenmonster ist sie natürlich nicht.
Stellt sich die Frage wie portiert man ein Spiel auf dem PC?
Wegen den Latenzen kannst du gewisse Algorithmen voll vergessen, die Möglichkeit würde bestehen, dass von der CPU erledigen zu lassen, wenn sie noch genug Power hat.
Ein großes Fragezeichen darüber, wie sich das ganze entwickeln wird und wie die Devs ihre Spiele in Zukunft aufbauen werden.
- Levi
- Beiträge: 44988
- Registriert: 18.03.2009 15:38
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Ernst gemeinte Frage, um nicht gegen ne Wand zu sprechen:Locuza hat geschrieben: Man sieht ja bei PhysX ganz gut wie viele FPS man hat, wenn die GPU 3D-Rendering betreibt und die Partikel berechnet und wie viele FPS man hat, wenn die CPU die Partikel
Was sieht man denn da?
denn ich wüsste zu kein Szenario, wo bei diesen Szenario die Bandbreite ein Problem bei dieser Speziellen Aufgabe ist. Wie du ja selbst schreibt: "Effekt-Physik" wandert nichtmal mehr zurück und hat somit kaum bis garnichts mit der Anbindung der GK ans Restsystem zu tun.
Und tatsächlich beeinflussende Physik limitiert sich auf "Vereinfachung" ....
€dit hier kommt gleich noch etwas Text das das alles Relativiert
NATÜRLICH ... hast du Recht, wenn wir jetzt von folgenden Ausgehen:
Warum bei Effekt-Physik bleiben, warum nicht auch die Ganzen Partikel interagierbar (Holz Brennt!) mit ihrer Umgebung machen. Wenn zum Beispiel jeder Funke ein ein Brandloch in einen Stoff hinterlassen könnte (was übers Optische hinaus geht) ...
dann hat die PS4 tatsächlich klare Vorteile. oder Wenn z.B. Haare real und am besten jedes einzelne schwingen, und dabei irgendwelche Gegenstände wieder mitreißen, die dann wiederum die Figur beeinflussen ...
Natürlich ermöglicht eine nähere Anbindung genauerer "spielereien" ... und wenn man dies auf die Spitze treibt auch tatsächlich Späße wo ein weiter Weg ein echtes Hindernis dar stellt.
JEDOCH: ... da sind wir noch lange nicht. Wir wären froh, wenn irgendwo mal ein Felsbrocken Physikalisch korrekt nach einer Explosion abbricht und herumpurzelt, und dabei die anwesenden Personen sich darüber beschweren, dass da nun was im Weg liegt. Jedoch limitiert für solche Späße die Bandbreite/Latenz noch lange nicht. (So ein Felsbrocken z.B. kann man für die Berechnung auf 20 Polygone runter brechen und die positionsdaten nur mit 10-20hz zurücksenden ... das Reicht völlig, um immernoch beeindruckender auszusehen, als wir es heute gewohnt sind. )
merke: in Zukunft werden die Vorteile von kürzeren Wegen bei GPGPU eklatant ... aber weder ist da die Software soweit, noch wird wahrscheinlich die Rohleistung der PS4 dahingehend ausreichen.
(ich lass mich jedoch gerne Überraschen
Zuletzt geändert von Levi am 13.03.2013 15:44, insgesamt 3-mal geändert.
- Locuza
- Beiträge: 695
- Registriert: 29.12.2010 01:34
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Es ging eher darum, dass GPGPU bei vielen Berechnungen deutlich schneller sein kann, als die CPU und genau beim PC kann man leider die GPU für viele GPGPU-Algos nur sehr begrenzt einsetzen, weil die Latenzen deutlich zu hoch sind und auch die Bandbreite zu niedrig.
Hohe Bandbreiten + niedrige Latenzen machen es deutlich einfacher Berechnungen abzugleichen und Abhängigkeiten zu lösen.
Hohe Bandbreiten + niedrige Latenzen machen es deutlich einfacher Berechnungen abzugleichen und Abhängigkeiten zu lösen.
-
EaZy187
- Beiträge: 13
- Registriert: 02.08.2011 18:36
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Hoebelix hat geschrieben:EaZy187 hat geschrieben: edit:1 bis 2 heroes meinten auch crysis 3 sähe jetzt schon besser aus ABER zu welchem preis?!?!?
du benötigst eine 680 ( wenn nicht sogar 2 ) um crysis auf höchst zu spielen (bei 1920x1080).Die 680 kosten im schnitt immernoch über 400 €.
Totaler Blödsinn.
Ich spiele Crysis 3 auch alles auf Max mit 4x SSAA in 1920x1080.
Und ich besitze NUR eine übertaktete GTX570 und 8 GB DDR3-RAM und einen (uralten :wink: ) i7 875K...![]()
Habe fast durchgehend über 35 FPS. Nicht immer alles glauben wenn man es selbst nicht getestet hat!
Also ich habe ne 670 und nen i5 mit 16 ram und komme nicht über 50 fps bei crysis 3.UND jetzt sag mir bitte nicht,das du mit 35 oder nen bissl mehr fps auskommst,bzw es dir reicht.Spiele mal nen esport shooter mit 35 fps.....Kommt auch drauf an was für ne 570 du hasst.Bist du dir sicher das du 4xSSAA meinst?
BtT:aber zu welchem Preis....Darauf wollte/will ich ja eigtl hinaus
- Iconoclast
- Beiträge: 1729
- Registriert: 26.05.2009 17:41
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
In welchem Verhältniss stehen jetzt eSport Shooter zu Crysis 3? Bei Crysis reichen 30-40 FPS dicke aus, bei einem UT nicht. Ich hab noch ne übertaktete 480 Amp hier drin, die etwas schneller als ne 570 ist und spiele Crysis 3 in 1080p, Very High mit 2 fachem AA bei ~ 30FPS. Das reicht locker. Da braucht man keine 400€+ Grafikkarte.
- Levi
- Beiträge: 44988
- Registriert: 18.03.2009 15:38
- Persönliche Nachricht:
Re: PlayStation 4: Avalanche: "Auf Jahre hinaus leistungsstä
Locuza hat geschrieben:Es ging eher darum, dass GPGPU bei vielen Berechnungen deutlich schneller sein kann, als die CPU und genau beim PC kann man leider die GPU für viele GPGPU-Algos nur sehr begrenzt einsetzen, weil die Latenzen deutlich zu hoch sind und auch die Bandbreite zu niedrig.
Hohe Bandbreiten + niedrige Latenzen machen es deutlich einfacher Berechnungen abzugleichen und Abhängigkeiten zu lösen.
siehe meinen Edit zum Thema Latenz+Bandbreite
