nVidia: GPU-PhysX startklar

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
Spunior
Beiträge: 1918
Registriert: 21.07.2005 21:19
Persönliche Nachricht:

Beitrag von Spunior »

Was ist eigentlich aus dem Herrn geworden, der hier noch meinte, dass das alles so nicht geht? ^^
unknown_18
Beiträge: 26973
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Beitrag von unknown_18 »

Glaub kaum, dass der nochmal auftaucht, hat gerade mal 8 Beiträge und die hatte er glaub alle nur in diesem Thread. ;)
Mironator
Beiträge: 1291
Registriert: 28.12.2007 21:28
User ist gesperrt.
Persönliche Nachricht:

Beitrag von Mironator »

Ich finde es schwachsinnig. Warum soll man die Grafikkarte noch zusätlich belasten, wenn man eine CPU im Rechner hat? Ich sehe da keinen Grund außer, dass man wieder merh Geld mit zukünftigen Grafikkarten rausholen will.
Benutzeravatar
TachiFoxy
Beiträge: 711
Registriert: 23.03.2008 21:25
Persönliche Nachricht:

Beitrag von TachiFoxy »

Mironator hat geschrieben:Ich finde es schwachsinnig. Warum soll man die Grafikkarte noch zusätlich belasten, wenn man eine CPU im Rechner hat? Ich sehe da keinen Grund außer, dass man wieder merh Geld mit zukünftigen Grafikkarten rausholen will.
Weil eine GPU einfach schneller Sachen berechnen kann - theoretisch - als eine CPU. Heutige CPUs laufen auf 64 Bit waehrend heutige GPUs schon weit darueber laufen. Daher muss man die Biester schon nicht so extrem hoch takten wie heutige Dual-/Quad-Cores, welche mit 3 GHz pro Core laufen. GPUs laufen meist mit etwas mehr als 1 GHz auf Chip, und da der Shader-Clock recht gross ist bei den meisten Karten dachte halt Nvidia "Warum denn nicht?", und das finde ich nicht schlecht von denen. Oder wuerdest du dir lieber eine PPU (Physics Processor Unit) kaufen, welche dann nochmal bis an die 100 Euro kostet? Bei Nvidia ist das dann alles schon bei der GPU dabei. Dann muss man nur eines kaufen, nicht beides.
Walter Skinner
Beiträge: 265
Registriert: 02.03.2008 20:16
Persönliche Nachricht:

Beitrag von Walter Skinner »

TachiFoxy hat geschrieben:Weil eine GPU einfach schneller Sachen berechnen kann - theoretisch - als eine CPU.
Nicht nur theoretisch - die meisten CPUs SIND zu langsam für die Physikberechnungen.

@ Mironator

Lies den Link den ich letzte Seite gepostet habe, dann bist du gescheiter. :wink:
Mironator
Beiträge: 1291
Registriert: 28.12.2007 21:28
User ist gesperrt.
Persönliche Nachricht:

Beitrag von Mironator »

Ja, habe ich. Bzw. erst durch die PhysX-Engine kann eine GPU so schnell die Physik berechnen. Aber änder nichts an der Tatsache, dass man die GPU noch zusätzlicher fordert, als sie schon wird. Warum soll ich Ressourcen der GPU für eine Physik-Engine verbraten, wenn im Spiel selbst das Spielgefühl durch eine schnellere aber gleichaussehen Physik-Engine nicht geändert wird?

Das selbe ist doch auch mit DX10. Es bringt keine neuen Effekte, oder sonst was. Nur durch eine dritte Shader-Einheit wird dem Programmierer es selber einfacher gemacht. Nur fordert eien dritte Shader-Einheit genau so sein Ressourcen-Anspruch.

Super, man bringt also neue Features, die die GPU mehr belasten und das Spielgefühl dann aber ingesamt durch niedrigere FPS getrimmt werden.

Ich persönlich bin sehr skeptisch dem ganzen gegenüber.
Benutzeravatar
Style rulez
Beiträge: 666
Registriert: 16.06.2008 19:39
Persönliche Nachricht:

Beitrag von Style rulez »

mmh...physikberechnungen...tolle sache.aber ob die technik treiberübergreifend fehlerfrei machbar ist???wie groß wäre dann die software????was für ansprüche an die graka??????

zur cpu-gpu sache:gpu laufen momentan bis 348 bit.
Benutzeravatar
danke15jahre4p
Beiträge: 16763
Registriert: 21.04.2006 16:18
User ist gesperrt.
Persönliche Nachricht:

Beitrag von danke15jahre4p »

@mironator und hotohori

ihr müsst einfach weiterdenken und die physikberechnung per gpu einfach wie ein neues feature z.b. hdr ansehen! hdr geht nämlich auch auf kosten der framerate! :wink:

jetzt ein neues feature -> bald standard, mal sehen wie ati nachzieht und ob es einen einheitlichen treiber/versions-standard geben wird? wohl eher nicht...

greetingz
TNT.ungut
Beiträge: 1595
Registriert: 23.03.2008 19:41
User ist gesperrt.
Persönliche Nachricht:

Beitrag von TNT.ungut »

ich hätte es eigentlich auch lieber gesehen, wenn man so etwas in cpu´s verwenden würde. aber im grunde ist das eigentlich egal, das wird sich dann preislich doch wieder ausgleichen. werden gpu´s halt wichtiger und teurer und cpu´s dann billiger, oder zumindest braucht man als spieler dann nicht mehr so teure.

aber es ist ja auch immer noch nicht gesagt, daß sich die physx engine durchsetzt. erstmal müssen die developer nachziehen und auch große spiele basierend darauf entwickeln. das wiederrum ist allein deswegen schon nicht garantiert, weil man die ati kunden ziemlich vernachlässigen würde damit.
ssmurf
Beiträge: 206
Registriert: 17.12.2003 13:04
Persönliche Nachricht:

Beitrag von ssmurf »

TNT.ungut hat geschrieben:ich hätte es eigentlich auch lieber gesehen, wenn man so etwas in cpu´s verwenden würde.
vor 5 jahren waren die grakas noch der flaschenhals. heut sinds meist die cpus. erkennst du sehr gut an den benchmarks in denen die gpu features aktiviert sind (aa, ff etc.). gerade modernere grafikkarten haben noch platzt nach oben hin, waehrend die cpu schon am limit rödelt.

gruss

edit, sorry, konnts mir nicht verkneifen,
Hotohori hat geschrieben:Glaub kaum, dass der nochmal auftaucht, hat gerade mal 8 Beiträge und die hatte er glaub alle nur in diesem Thread. ;)
du hast 11001 beitraege ... fliegen gibt es in der heutigen form seit millionen von jahren. evolutionstechnisch haben sie sich also bewaehrt. sie ernaehren sich von aas und vermehren sich im kot. mit anderen worten: zahlen sind was feines
Benutzeravatar
BetaSword
Beiträge: 642
Registriert: 09.06.2005 08:53
Persönliche Nachricht:

Beitrag von BetaSword »

Also da kann man sich doch freuen.

Mein bruder bekommt demnächst von seiner Liebsten auch eine Ultra geschenkt, dann kann er die PhysX-Erweiterungen recht schamlos nutzen.
Ob sich das allerdings mit meiner 8600GT(ZOTAC's 512MB-Version) verträgt, ohne zu grosse Probleme zu bereiten muss ich dann erstmal noch testen.
Benutzeravatar
derfreak
Beiträge: 1165
Registriert: 24.03.2007 19:38
Persönliche Nachricht:

Beitrag von derfreak »

Gbit doch Benches auf Computerbase in denen ersichtlich wird, dass der Performancevverlust minimal ist (5% oder so je nach Spiel)