nVidia: eine GF6 ist nicht genug
Moderatoren: Moderatoren, Redakteure
-
4P|Bot
- Persönliche Nachricht:
nVidia: eine GF6 ist nicht genug
Erinnert sich noch jemand an die Voodoo2-Karten von 3Dfx? Die protzten vor einigen Jahren erstmals mit der so genannten SLI-Technologie (Scan Line Interleave), mit dem man zwei identische Grafikkarten parallel arbeiten lassen konnte, um mehr Rechenpower zur Verfügung zu haben. <A href="http://www.nvidia.de" target=_blank>nVidia</A> plant etwas ganz ähnliches für seine GeForce 6 und GeForce Quadro-Grafikkarten-Reihe: Im PCI Express-Bus könnt ihr, genügend Kleingeld vorausgesetzt, <A href="http://www.nvidia.de/page/sli.html" target=_blank>per SLI</A> zwei dieser Karten miteinander verbinden, um ein wahres Grafikmonster unterm Gehäuse arbeiten zu lassen. Dazu braucht es auch keine Extra-Treiber, alles wird Hardware-seitig gelöst. <BR><BR>Erste Interessebekundungen an der Ausnutzung dieser Technologie kamen, wie zu erwarten, von Tim Sweeney von Epic Games, der in der SLI-Technik eine ideale Basis für die <B>Unreal Engine 3<B> <A class=DYNLINK onmouseover="DynToolTipp_Show('Klicken für <b>Gameinfos</b>')" onmouseout="DynToolTipp_Hide(); " href="javascript:DynCont_Display('Gamefinder','runmod.php?sid={SID}&LAYOUT=dyncont_gf&spielid=5772')"><IMG height=11 src="http://www.4players.de/grafik/icon_info.gif" width=14 border=0></A></B></B> sieht, die seinen Worten nach <EM>»einen unstillbaren Hunger nach Füllrate und Polygondurchsatz«</EM> hat.<br><br>Hier geht es zur News: <a href="http://www.4players.de/rendersite.php?L ... wsid=33391" target="_blank">nVidia: eine GF6 ist nicht genug</a>
-
ErikStoni83
- Beiträge: 53
- Registriert: 11.06.2004 01:43
- Persönliche Nachricht:
Tja das bedeutet wohl das aus an günstigen pc spiel !
Denn mit der zeit wird es dann zur gewonheit das man 2 Karten braucht um richtig alles auszunutzen. In meinen augen sieht das ganze nach starker abzocke aus mehr nicht. Und mal unter uns: Was nützt uns der hunger von Unreal 3 wenn die scheisse so dermaßen frisst und das game schrott ist.
-
Reaktorproblem
- Beiträge: 318
- Registriert: 19.06.2003 13:14
- Persönliche Nachricht:
ey langsam geht mir die Grakikkarten industrie tierisch auf den Sack!
Statt kleinere Karten mit mehr Power zu entwickeln, oder direckt zu koppeln wird man nun wieder auf das Prinzip von vor 5 Jahren zurückgegriffen!
1. Mehr Kosten für Gamer, die schon sowieso ausgebeutet werden
2. mehr stromverbrauch, mehr hitze = wiederrum krassere Netzteile mit krasseren Lüftern!
so nicht Nvidia! deswegen bin ich und bleibe auch bei ATI! (solange die auch nicht son schrott vorhaben)
Statt kleinere Karten mit mehr Power zu entwickeln, oder direckt zu koppeln wird man nun wieder auf das Prinzip von vor 5 Jahren zurückgegriffen!
1. Mehr Kosten für Gamer, die schon sowieso ausgebeutet werden
2. mehr stromverbrauch, mehr hitze = wiederrum krassere Netzteile mit krasseren Lüftern!
so nicht Nvidia! deswegen bin ich und bleibe auch bei ATI! (solange die auch nicht son schrott vorhaben)
-
ewerybody
- Beiträge: 960
- Registriert: 29.10.2002 14:47
- Persönliche Nachricht:
Ichhasseswennicheinenriesentextschreibundallesaufeinmalwegis
Also: Das wird doch genau wie damals: Keine Sau macht das bis auf ein paar Kaputte und Grafikbutzen. Hatte auch ne Voodoo2 und bin nicht dazu gekommen ne 2. einzubauen.
Und Tim Sweeney mit seinem bescheuerten Geprolle wird auch wieder ganz leise. Kann mir keiner erzählen die Titel mit der neuen Engine werden, wenn sie draussen sind NUR auf super Highend-Karten laufen. Die würden sich ja selbst den Ast absägen wenn sie keine Fallback-Optionen einbauen würden. Der wird sich auch keine neue Brille leisten können, wenn sie nur an die paar tausend Gamer denken, die sich wegen nem Spiel ne neue Graka holen.
Und Reaktorproblem? Es gibt doch günstige Karten die auch viel leisten. Daß cutting Edge immer sauteuer is is doch nen alter Hut *gäähn*. Sein wir froh, daß wir diese seifenopernartige Konstellation von 2 großen Herstellern haben. Gäbs nur einen, wären die Preise in jeglicher Hinsicht absurd. Und wir hätten was weniger zum flamen!!
Und Tim Sweeney mit seinem bescheuerten Geprolle wird auch wieder ganz leise. Kann mir keiner erzählen die Titel mit der neuen Engine werden, wenn sie draussen sind NUR auf super Highend-Karten laufen. Die würden sich ja selbst den Ast absägen wenn sie keine Fallback-Optionen einbauen würden. Der wird sich auch keine neue Brille leisten können, wenn sie nur an die paar tausend Gamer denken, die sich wegen nem Spiel ne neue Graka holen.
Und Reaktorproblem? Es gibt doch günstige Karten die auch viel leisten. Daß cutting Edge immer sauteuer is is doch nen alter Hut *gäähn*. Sein wir froh, daß wir diese seifenopernartige Konstellation von 2 großen Herstellern haben. Gäbs nur einen, wären die Preise in jeglicher Hinsicht absurd. Und wir hätten was weniger zum flamen!!
-
johndoe-freename-65325
- Beiträge: 701
- Registriert: 28.03.2004 13:49
- Persönliche Nachricht:
So ein Blödsinn. Die Fertigungstechnologien werden immer effizienter/kleiner und die Chips somit immer leistungsfähiger. Der geplante Schritt von Nvidia ist somit nicht nur rückständig, er wird wie oben schon erwähnt auch nicht von den Käufern akzeptiert werden, die dann 2 x 480 Euro ausgeben dürfen...
Wie wäre es wenn die Industrie mal auf Konsolenvorgehensweise umschwängt - nämlich vorhandene Technologie erst einmal auszunutzen und die Software zu verbessern, anstatt immer neue Hardware nachzuschieben.
Wie wäre es wenn die Industrie mal auf Konsolenvorgehensweise umschwängt - nämlich vorhandene Technologie erst einmal auszunutzen und die Software zu verbessern, anstatt immer neue Hardware nachzuschieben.
- JimNorton
- Beiträge: 554
- Registriert: 24.02.2004 01:09
- Persönliche Nachricht:
Wers braucht
Es wird sicher genügend \"Freaks\" geben, die sich ein solches System zusammenstellen werden.
Damit rechnet ja auch die Industrie.
Aber vielleicht brauchen sie auch nur endlich was, womit sie Ati schlagen können?
Und nebenbei gleichen die so ihren Verlust bei der GF5 Pleite aus.
Abwarten Morgen kommt ATi und Präsentiert seine 3 Karten Strategie. Für nochmehr Leistung.......
\"»einen unstillbaren Hunger nach Füllrate und Polygondurchsatz«\"
Rosige Zukunft für \"normale\" Spieler die sich keine 2 Grafikkarten leisten können.
Damit rechnet ja auch die Industrie.
Aber vielleicht brauchen sie auch nur endlich was, womit sie Ati schlagen können?
Und nebenbei gleichen die so ihren Verlust bei der GF5 Pleite aus.
Abwarten Morgen kommt ATi und Präsentiert seine 3 Karten Strategie. Für nochmehr Leistung.......
\"»einen unstillbaren Hunger nach Füllrate und Polygondurchsatz«\"
Rosige Zukunft für \"normale\" Spieler die sich keine 2 Grafikkarten leisten können.
- Black_Hand
- Beiträge: 672
- Registriert: 18.12.2002 23:47
- Persönliche Nachricht:
Anstatt das die großen Grafikchip entwickler sich neue Techniken einfallen lassen womit sie die leistung verbesser können, schrauben sie die MHZ immer höher, und langsam lässt sich das Material nicht weiter auslasten. Also nehmen sie einfach 2davon.
Dahinter steckt aber auch der druck jedes Jahr eine neue Grafikkarte zu entwickeln.
*Wartet noch immer auf eine neue Grafikkarte von PowerVR, irgendwann wird sie kommen*
Dahinter steckt aber auch der druck jedes Jahr eine neue Grafikkarte zu entwickeln.
*Wartet noch immer auf eine neue Grafikkarte von PowerVR, irgendwann wird sie kommen*
-
johndoe-freename-65510
- Beiträge: 38
- Registriert: 01.04.2004 23:04
- Persönliche Nachricht:
immer nur hardware aufrüsten?
ohh man. die sollten doch lieber mal die
versuchen engines zu optimieren... und
nicht immer nur die hardware hochstocken.
klar braucht man hardware mäßig für directx9
andere shader und pipelines... aber karten kombinieren.. nö. braucht man dann 4 steckpläte wegen den fetten lüftern... lol.

versuchen engines zu optimieren... und
nicht immer nur die hardware hochstocken.
klar braucht man hardware mäßig für directx9
andere shader und pipelines... aber karten kombinieren.. nö. braucht man dann 4 steckpläte wegen den fetten lüftern... lol.
-
Cool FX
- Beiträge: 24
- Registriert: 11.06.2004 23:13
- Persönliche Nachricht:
nVidia sowieso dreckig
Also was die da jetzt vorhaben schockiert mich echt! Wer hat schon das Geld, den Aufwand oder überhaupt die Lust dazu? NVidia entwickelt immer mehr schlechtere Produkte und das habe ich nicht nur so aus der Luft gegriffen, sondern es steht in der aktuellen GameStar (Morgen kommt nächste Ausgabe), dass nVida\'s \"Superkarte\"
gegen ATI\'s Flagschiff absuckt. Zum Teil ist nVidia mit seiner Grafikkarte in Sachen Leistung vorne, doch es hat magere Schwächen in enderen Punkten. Meiner Meinung nach war bis jetzt, was nVidia entwickelt hat, die GeForce 4 TI Reihe auch die beste...
Wahrscheinlich steige ich auf ATI um. Ich bin mir zwar nicht ganz sicher, aber wenn man sich die einzelnen Mankos von nVidia\'s GeForce 6800 Ultra Extreme genauer anschaut, dann regt es zum nachdenken an. Vorallem der Preis: 600 Euro --> omg
Aber jeder hat so seine eigene Meinung dazu. Im großen und ganzen suckt nVidia langsam und es nervt einfach, obwohl die Grafikkarten beliebt sind...
Wahrscheinlich steige ich auf ATI um. Ich bin mir zwar nicht ganz sicher, aber wenn man sich die einzelnen Mankos von nVidia\'s GeForce 6800 Ultra Extreme genauer anschaut, dann regt es zum nachdenken an. Vorallem der Preis: 600 Euro --> omg
Aber jeder hat so seine eigene Meinung dazu. Im großen und ganzen suckt nVidia langsam und es nervt einfach, obwohl die Grafikkarten beliebt sind...
- Eisregen121
- Beiträge: 2474
- Registriert: 05.04.2003 21:32
- Persönliche Nachricht:
Will ja keinen Konsolen vs PC krieg entfachen, aber stimmt wie mein vorredner erkannt hat, sollte man sich mal ein bisschen von reiner Hardware Distanzieren.
Die Karten werden nicht im Ansatz ausgereitzt., Sicher irgendwann gehen sie nimmer. Ich brauche nicht mit eine GF3 Far Cry flüssig spielen wollen. Ist schon logisch.
Aber wenn man Konsolen ansieht. Immer wenn man denkt dasa Grafische Maximum ist erreicht, wird noch eines drauf gesetzt.
Beispiel: hätte jemand der sich anfangs PS2 spiele kaufte erwartet das es mal Spiele wie Splinter Cell 1 auf der PS2 geben wird ?
Hätte sich ein Splinter Cell 1 käufe gedacht das noch mal eine so große steigerung drin sein kann zu Splinter Cell zwei ?
Ne, was nicht an der besonderen Hardware liegt sondern schlicht und einfach daran das sich die entwickler länger mir den Chipsätzen beschäftigen, was sie auch müssen.
Da fallen ihnen dann mehr schlupflöcher ein, mehr Hintertürchen usw....
Bei den PC karten machen sie es sich durchschnittlich gesehen schon viel einfacher. Die machen ihr spiel Machen es für eine grafikkarte ihrer wahl, optimieren es bissi hoch und bissi runter. Fertig.
Das nächste spiel macht man gleich für die nexte Generation an grafikkarten.
Sicher keine frage, wenn es nicht so währe das würden die grafikkarten hersteller ja langsam pleite gehen. Oder sie müssten sich intensiver mit treibern beschäftigen, was da alles drin wäre an möglichkeiten, wenn das potenzial mal nur auf die Treiber, und Direct x und co gelegt wird. Da wäre einiges mehr drin.
Ist wie Öl und Auto lol.
Aber wir sind doch immer wieder so dumm und machen jeden dummen Hype mit.
Die Karten werden nicht im Ansatz ausgereitzt., Sicher irgendwann gehen sie nimmer. Ich brauche nicht mit eine GF3 Far Cry flüssig spielen wollen. Ist schon logisch.
Aber wenn man Konsolen ansieht. Immer wenn man denkt dasa Grafische Maximum ist erreicht, wird noch eines drauf gesetzt.
Beispiel: hätte jemand der sich anfangs PS2 spiele kaufte erwartet das es mal Spiele wie Splinter Cell 1 auf der PS2 geben wird ?
Hätte sich ein Splinter Cell 1 käufe gedacht das noch mal eine so große steigerung drin sein kann zu Splinter Cell zwei ?
Ne, was nicht an der besonderen Hardware liegt sondern schlicht und einfach daran das sich die entwickler länger mir den Chipsätzen beschäftigen, was sie auch müssen.
Da fallen ihnen dann mehr schlupflöcher ein, mehr Hintertürchen usw....
Bei den PC karten machen sie es sich durchschnittlich gesehen schon viel einfacher. Die machen ihr spiel Machen es für eine grafikkarte ihrer wahl, optimieren es bissi hoch und bissi runter. Fertig.
Das nächste spiel macht man gleich für die nexte Generation an grafikkarten.
Sicher keine frage, wenn es nicht so währe das würden die grafikkarten hersteller ja langsam pleite gehen. Oder sie müssten sich intensiver mit treibern beschäftigen, was da alles drin wäre an möglichkeiten, wenn das potenzial mal nur auf die Treiber, und Direct x und co gelegt wird. Da wäre einiges mehr drin.
Ist wie Öl und Auto lol.
Aber wir sind doch immer wieder so dumm und machen jeden dummen Hype mit.
-
Mr.Been
- Beiträge: 34
- Registriert: 26.08.2003 14:28
- Persönliche Nachricht:
Ohje, damals waren die Preise auch noch humaner, heute kann man sich fast nen PC kaufen für den Preis einer GraKa. Bevor ich mir also eine zweite GraKa. kaufe, kauf ich mir lieber nen neuen Rechner für das Geld. Und nen Jahr später muss man sich dann 2 neue GraKa´s. kaufen weil die wieder alt sind oder wie ?
Wenn die Spieleindustire da einsteigt, dann Gute Nacht...
Wenn die Spieleindustire da einsteigt, dann Gute Nacht...
-
johndoe-freename-24443
- Beiträge: 28
- Registriert: 06.09.2002 15:42
- Persönliche Nachricht:
Wollte schon mal immer was zu dieser U3 Engine sagen.Es sieht zwar gut aus aber das wars auch!Ich sehe nicht so den unterschied zwichen der GFX heute und der U3 Engine.Schonmal ne Raytracing Engiene in Action gesehen?Lol dagegen sieht die U3 Engine krass alt aus und das geilste ist , sie läuft bei mir auf nen Athlon 64 und 1gb Ram auf 800x600 auf Mitteleren Deatlis flüssig!Lol wofür braucht die U3 Engine so viel Rechenpower?Damit es vllt schlechter aussieht???Echt erbärmlich really ...
- SchmalzimOHR
- Beiträge: 1032
- Registriert: 05.02.2003 16:08
- Persönliche Nachricht:
Tja dann pisst sich Epic wohl eindeutig ans eigene Bein mit ihrer tollen Monster Engine denn wer nicht optimieren kann der hat auf dem PC Sektor nichts verloren Epic sollte darüber nachdenken zu den Konsolen zu wechseln denn dort bestimmt immer noch das Angebot die Nachfrage im Gegensatz zum PC wo die User immer noch die Wahl haben.
Also sollte die \"tolle\" U III Engine so hardwarehungrig sein hat epic wohl einiges falsch gemacht denn Lustiges Polygon klatschen kann jeder richtiges Optimieren bleibt dagegen wohl nur den richtig guten ala ID vorbehalten deren QIII immer noch im einsatz ist und selbst aus der Engine kann man noch mehr herausholen als aus der Unreal Warfare Engine.
Also sollte die \"tolle\" U III Engine so hardwarehungrig sein hat epic wohl einiges falsch gemacht denn Lustiges Polygon klatschen kann jeder richtiges Optimieren bleibt dagegen wohl nur den richtig guten ala ID vorbehalten deren QIII immer noch im einsatz ist und selbst aus der Engine kann man noch mehr herausholen als aus der Unreal Warfare Engine.
-
Reaktorproblem
- Beiträge: 318
- Registriert: 19.06.2003 13:14
- Persönliche Nachricht:
Ich sag ja dass es schwachsinnig ist 2 karten zu koppeln, anstatt eine sehr gute daraus zu machen!Und Reaktorproblem? Es gibt doch günstige Karten die auch viel leisten. Daß cutting Edge immer sauteuer is is doch nen alter Hut *gäähn*. Sein wir froh, daß wir diese seifenopernartige Konstellation von 2 großen Herstellern haben. Gäbs nur einen, wären die Preise in jeglicher Hinsicht absurd. Und wir hätten was weniger zum flamen!!
