nVidia: GPU-PhysX startklar
Moderatoren: Moderatoren, Redakteure
-
unknown_18
- Beiträge: 26973
- Registriert: 05.08.2002 13:11
- Persönliche Nachricht:
-
Mironator
- Beiträge: 1291
- Registriert: 28.12.2007 21:28
- User ist gesperrt.
- Persönliche Nachricht:
- TachiFoxy
- Beiträge: 711
- Registriert: 23.03.2008 21:25
- Persönliche Nachricht:
Weil eine GPU einfach schneller Sachen berechnen kann - theoretisch - als eine CPU. Heutige CPUs laufen auf 64 Bit waehrend heutige GPUs schon weit darueber laufen. Daher muss man die Biester schon nicht so extrem hoch takten wie heutige Dual-/Quad-Cores, welche mit 3 GHz pro Core laufen. GPUs laufen meist mit etwas mehr als 1 GHz auf Chip, und da der Shader-Clock recht gross ist bei den meisten Karten dachte halt Nvidia "Warum denn nicht?", und das finde ich nicht schlecht von denen. Oder wuerdest du dir lieber eine PPU (Physics Processor Unit) kaufen, welche dann nochmal bis an die 100 Euro kostet? Bei Nvidia ist das dann alles schon bei der GPU dabei. Dann muss man nur eines kaufen, nicht beides.Mironator hat geschrieben:Ich finde es schwachsinnig. Warum soll man die Grafikkarte noch zusätlich belasten, wenn man eine CPU im Rechner hat? Ich sehe da keinen Grund außer, dass man wieder merh Geld mit zukünftigen Grafikkarten rausholen will.
-
Walter Skinner
- Beiträge: 265
- Registriert: 02.03.2008 20:16
- Persönliche Nachricht:
-
Mironator
- Beiträge: 1291
- Registriert: 28.12.2007 21:28
- User ist gesperrt.
- Persönliche Nachricht:
Ja, habe ich. Bzw. erst durch die PhysX-Engine kann eine GPU so schnell die Physik berechnen. Aber änder nichts an der Tatsache, dass man die GPU noch zusätzlicher fordert, als sie schon wird. Warum soll ich Ressourcen der GPU für eine Physik-Engine verbraten, wenn im Spiel selbst das Spielgefühl durch eine schnellere aber gleichaussehen Physik-Engine nicht geändert wird?
Das selbe ist doch auch mit DX10. Es bringt keine neuen Effekte, oder sonst was. Nur durch eine dritte Shader-Einheit wird dem Programmierer es selber einfacher gemacht. Nur fordert eien dritte Shader-Einheit genau so sein Ressourcen-Anspruch.
Super, man bringt also neue Features, die die GPU mehr belasten und das Spielgefühl dann aber ingesamt durch niedrigere FPS getrimmt werden.
Ich persönlich bin sehr skeptisch dem ganzen gegenüber.
Das selbe ist doch auch mit DX10. Es bringt keine neuen Effekte, oder sonst was. Nur durch eine dritte Shader-Einheit wird dem Programmierer es selber einfacher gemacht. Nur fordert eien dritte Shader-Einheit genau so sein Ressourcen-Anspruch.
Super, man bringt also neue Features, die die GPU mehr belasten und das Spielgefühl dann aber ingesamt durch niedrigere FPS getrimmt werden.
Ich persönlich bin sehr skeptisch dem ganzen gegenüber.
- Style rulez
- Beiträge: 666
- Registriert: 16.06.2008 19:39
- Persönliche Nachricht:
- danke15jahre4p
- Beiträge: 16763
- Registriert: 21.04.2006 16:18
- User ist gesperrt.
- Persönliche Nachricht:
@mironator und hotohori
ihr müsst einfach weiterdenken und die physikberechnung per gpu einfach wie ein neues feature z.b. hdr ansehen! hdr geht nämlich auch auf kosten der framerate! :wink:
jetzt ein neues feature -> bald standard, mal sehen wie ati nachzieht und ob es einen einheitlichen treiber/versions-standard geben wird? wohl eher nicht...
greetingz
ihr müsst einfach weiterdenken und die physikberechnung per gpu einfach wie ein neues feature z.b. hdr ansehen! hdr geht nämlich auch auf kosten der framerate! :wink:
jetzt ein neues feature -> bald standard, mal sehen wie ati nachzieht und ob es einen einheitlichen treiber/versions-standard geben wird? wohl eher nicht...
greetingz
-
TNT.ungut
- Beiträge: 1595
- Registriert: 23.03.2008 19:41
- User ist gesperrt.
- Persönliche Nachricht:
ich hätte es eigentlich auch lieber gesehen, wenn man so etwas in cpu´s verwenden würde. aber im grunde ist das eigentlich egal, das wird sich dann preislich doch wieder ausgleichen. werden gpu´s halt wichtiger und teurer und cpu´s dann billiger, oder zumindest braucht man als spieler dann nicht mehr so teure.
aber es ist ja auch immer noch nicht gesagt, daß sich die physx engine durchsetzt. erstmal müssen die developer nachziehen und auch große spiele basierend darauf entwickeln. das wiederrum ist allein deswegen schon nicht garantiert, weil man die ati kunden ziemlich vernachlässigen würde damit.
aber es ist ja auch immer noch nicht gesagt, daß sich die physx engine durchsetzt. erstmal müssen die developer nachziehen und auch große spiele basierend darauf entwickeln. das wiederrum ist allein deswegen schon nicht garantiert, weil man die ati kunden ziemlich vernachlässigen würde damit.
-
ssmurf
- Beiträge: 206
- Registriert: 17.12.2003 13:04
- Persönliche Nachricht:
vor 5 jahren waren die grakas noch der flaschenhals. heut sinds meist die cpus. erkennst du sehr gut an den benchmarks in denen die gpu features aktiviert sind (aa, ff etc.). gerade modernere grafikkarten haben noch platzt nach oben hin, waehrend die cpu schon am limit rödelt.TNT.ungut hat geschrieben:ich hätte es eigentlich auch lieber gesehen, wenn man so etwas in cpu´s verwenden würde.
gruss
edit, sorry, konnts mir nicht verkneifen,
du hast 11001 beitraege ... fliegen gibt es in der heutigen form seit millionen von jahren. evolutionstechnisch haben sie sich also bewaehrt. sie ernaehren sich von aas und vermehren sich im kot. mit anderen worten: zahlen sind was feinesHotohori hat geschrieben:Glaub kaum, dass der nochmal auftaucht, hat gerade mal 8 Beiträge und die hatte er glaub alle nur in diesem Thread.
- BetaSword
- Beiträge: 642
- Registriert: 09.06.2005 08:53
- Persönliche Nachricht:
Also da kann man sich doch freuen.
Mein bruder bekommt demnächst von seiner Liebsten auch eine Ultra geschenkt, dann kann er die PhysX-Erweiterungen recht schamlos nutzen.
Ob sich das allerdings mit meiner 8600GT(ZOTAC's 512MB-Version) verträgt, ohne zu grosse Probleme zu bereiten muss ich dann erstmal noch testen.
Mein bruder bekommt demnächst von seiner Liebsten auch eine Ultra geschenkt, dann kann er die PhysX-Erweiterungen recht schamlos nutzen.
Ob sich das allerdings mit meiner 8600GT(ZOTAC's 512MB-Version) verträgt, ohne zu grosse Probleme zu bereiten muss ich dann erstmal noch testen.
