nVidia: eine GF6 ist nicht genug
Moderatoren: Moderatoren, Redakteure
-
Arkune
- Beiträge: 10699
- Registriert: 24.09.2002 17:58
- Persönliche Nachricht:
3 solcher Grafikkarten ist Technisch derzeit wohl unmoeglich da dem PCI-E Bus nicht genug Lanes zur Verfueng stehen.
Schon die zwei GeForce Karten verhindern den weiteren Einbau einer 3ten PCI-E Karte und sei es auch nur eine 1x Karte (Netzwerkkarte zum Beispiel).
Das gezeigte Board hat nur 24 PCI-E Lanes. Der erste PCI-E Slot verbraucht 16 Lanes der zweite 8 Lanes.
Ein Board mit zwei vollen 16x PCI-E Slots braeuchte 32 Lanes und die gibt es derzeit einfach nicht.
i915/i925 Chipsaetze haben nur 20 Lanes deshalb zeigt nVidia den SLI Modus auch auf einem E7525 Board.
Auf keinem anderen Chipsatz ist es derzeit moeglich so etwas einzusetzen.
Eine GeForce 6800 Ultra kostet uebrigens keine 600 Euro. Man kann zwar 600 Euro dafuer zahlen aber dann ist man selbst schuld wenn man sich ausziehen laest.
Asus (Asus V9999 Ultra Deluxe) Karten gibt es zum Beispiel schon fuer 515 Euro auf dem AGP 8x Slot. Die PCI-E wird teuerer das ist klar aber keine 80 Euro teuerer…
Lieferbar ist die uebrigens noch nicht.
Zwei Karten also ab ca. 1030 Euro
Eure Argument das dies abzocke ist finde ich zieht nicht. Eine Grafikkarte alleine hat genug Leistung fuer alle Spiele die derzeit auf dem Markt sind.
Man wird nicht dazu genoetigt das man sich zwei davon kauft im Gegenteil man erhaelt eine zusaetzliche Aufruestoption.
Ich kauf heute eine GeForce 6800 Ultra fuer 500~550 Euro und in einem Jahr wenn sie „zu langsam“ ist kaufe ich eine zweite fuer sagen 200~250 Euro dazu, dadurch verdoppelt sich die Leistung meines Systems.
Eine zu diesem Zeitpunkt aktuelle High-End-Karte wird dann wahrscheinlich wieder um die 500 bis 600 Euro kosten.
Wie weit der Leistungsvorsprung der High-End-Karte gegenueber dem SLI Gespann sein wird kann man natuerlich nicht abschaetzen. Aber ich wuerde nicht darauf wetten dass es viel ist.
Ich hatte eine Voodoo 2 im SLI das war damals eine ziemlich schnelle Sache. Die folgende Grafikkarten Generation war nicht so viel schneller als das sich ein Umstieg gelohnt haette.
Dabei war das Voodoo 2 Gespann nur 50% schneller als eine einzige Voodoo 2.
Wenn Nvidia hier 87 % erreicht dann haelt das eine ganze weile.
Ohne Corewechsel werden wohl weder ATI noch Nvidia daran vorbei kommen das haben die letzten Generationen gezeigt.
Da waren es durchschnittlich 10% ohne und bei einem Corewechsel (Ausnahme NV40 und R420) waren es meist nur um die 30% Leistungssteigerung. Das die beiden es wieder schaffen ihre „alten“ Chips so im Regen stehen zu lassen mit mehr als 100% Mehrleistung glaube ich nicht.
Sich sofort zwei GeForce Karten zu kaufen ist eine Sache fuer Enthusiasten und selbst von denen gibt es sicher genug.
Wenn Nvidia den nForce 4 mit Support fuer die beiden PCI-E Slots bringt (vielleicht sogar 32 Lanes?) wird diese Technologie fuer einen relativ breiten Markt interessant.
Ich fuer meinen Teil habe meine derzeitigen Plaene zum Rechnerneukauf gestoppt.
Ein solches System koennte fuer mich sehr attraktiv sein, ich gehoere zu den Enthusiasten.
Schon die zwei GeForce Karten verhindern den weiteren Einbau einer 3ten PCI-E Karte und sei es auch nur eine 1x Karte (Netzwerkkarte zum Beispiel).
Das gezeigte Board hat nur 24 PCI-E Lanes. Der erste PCI-E Slot verbraucht 16 Lanes der zweite 8 Lanes.
Ein Board mit zwei vollen 16x PCI-E Slots braeuchte 32 Lanes und die gibt es derzeit einfach nicht.
i915/i925 Chipsaetze haben nur 20 Lanes deshalb zeigt nVidia den SLI Modus auch auf einem E7525 Board.
Auf keinem anderen Chipsatz ist es derzeit moeglich so etwas einzusetzen.
Eine GeForce 6800 Ultra kostet uebrigens keine 600 Euro. Man kann zwar 600 Euro dafuer zahlen aber dann ist man selbst schuld wenn man sich ausziehen laest.
Asus (Asus V9999 Ultra Deluxe) Karten gibt es zum Beispiel schon fuer 515 Euro auf dem AGP 8x Slot. Die PCI-E wird teuerer das ist klar aber keine 80 Euro teuerer…
Lieferbar ist die uebrigens noch nicht.
Zwei Karten also ab ca. 1030 Euro
Eure Argument das dies abzocke ist finde ich zieht nicht. Eine Grafikkarte alleine hat genug Leistung fuer alle Spiele die derzeit auf dem Markt sind.
Man wird nicht dazu genoetigt das man sich zwei davon kauft im Gegenteil man erhaelt eine zusaetzliche Aufruestoption.
Ich kauf heute eine GeForce 6800 Ultra fuer 500~550 Euro und in einem Jahr wenn sie „zu langsam“ ist kaufe ich eine zweite fuer sagen 200~250 Euro dazu, dadurch verdoppelt sich die Leistung meines Systems.
Eine zu diesem Zeitpunkt aktuelle High-End-Karte wird dann wahrscheinlich wieder um die 500 bis 600 Euro kosten.
Wie weit der Leistungsvorsprung der High-End-Karte gegenueber dem SLI Gespann sein wird kann man natuerlich nicht abschaetzen. Aber ich wuerde nicht darauf wetten dass es viel ist.
Ich hatte eine Voodoo 2 im SLI das war damals eine ziemlich schnelle Sache. Die folgende Grafikkarten Generation war nicht so viel schneller als das sich ein Umstieg gelohnt haette.
Dabei war das Voodoo 2 Gespann nur 50% schneller als eine einzige Voodoo 2.
Wenn Nvidia hier 87 % erreicht dann haelt das eine ganze weile.
Ohne Corewechsel werden wohl weder ATI noch Nvidia daran vorbei kommen das haben die letzten Generationen gezeigt.
Da waren es durchschnittlich 10% ohne und bei einem Corewechsel (Ausnahme NV40 und R420) waren es meist nur um die 30% Leistungssteigerung. Das die beiden es wieder schaffen ihre „alten“ Chips so im Regen stehen zu lassen mit mehr als 100% Mehrleistung glaube ich nicht.
Sich sofort zwei GeForce Karten zu kaufen ist eine Sache fuer Enthusiasten und selbst von denen gibt es sicher genug.
Wenn Nvidia den nForce 4 mit Support fuer die beiden PCI-E Slots bringt (vielleicht sogar 32 Lanes?) wird diese Technologie fuer einen relativ breiten Markt interessant.
Ich fuer meinen Teil habe meine derzeitigen Plaene zum Rechnerneukauf gestoppt.
Ein solches System koennte fuer mich sehr attraktiv sein, ich gehoere zu den Enthusiasten.
-
johndoe-freename-49913
- Beiträge: 39
- Registriert: 31.07.2003 13:57
- Persönliche Nachricht:
Frage an SSJ_DarkMaster
Will zwar nicht vom thema abkommen aber sag mal bitte SSJ_DarkMaster welches Spiel deiner meinung die Raytracing Engine Unterstützt? Oder Welche Grafikkarte?
(Jetzt mal von Quake3 Raytraced Abgesehen laut Gamest**! Das an der Uni Saarbrücken Programmiert wurde
und erst am 26.April 2004 der Öffendlichkeit vorgestellt wurde?)
(Jetzt mal von Quake3 Raytraced Abgesehen laut Gamest**! Das an der Uni Saarbrücken Programmiert wurde
und erst am 26.April 2004 der Öffendlichkeit vorgestellt wurde?)
-
johndoe-freename-49913
- Beiträge: 39
- Registriert: 31.07.2003 13:57
- Persönliche Nachricht:
Ach Was ich noch SSJ_DarkMaster und allen anderen noch...
...sagen wollte= Habe grade mal in der Gamest** nach gesclagen und die Quake3 Raytraced läuft bei den Entwicklern auf einem Linux-Rechnerverbund mit 48 Athlon-MP-Prozessoren und 12GByte Ram!!!
Also so viel zu dem Hardware Hunger der neuen Unreal 3 Engine!!! :wink:
Also so viel zu dem Hardware Hunger der neuen Unreal 3 Engine!!! :wink:
-
Arkune
- Beiträge: 10699
- Registriert: 24.09.2002 17:58
- Persönliche Nachricht:
Ray Traced ist Zukunftsmusik.
Das kann im Moment noch nicht von der Grafikkarte berechnet werden und deshalb ist es derzeit ein Unding.
Die Quake 3 Engine von der Uni sieht uebrigens meiner Meinung nach nicht so toll aus weil sie das Quake 3 Geruest verwendet. Figuren mit nur ein paar hundert Polygonen sind heutzutage nun mal veraltet, die Texturen sind schlecht etc.
Die Engine soll ja nur die Korrekte Berechnung der Umgebung demonstrieren wirklich gut aussehen tut sie meiner Meinung nach nicht.
Die Unreal Engine kommt da mit um die 10000 Polygonen pro Charakter schon weitaus besser rueber.
Der Style sieht meiner Meinung nach sehr gut aus, es wirkt sehr harmonisch und realitaets nah.
Bis Ray Traced so weit ist dauert es noch seine Zeit aber es ist gut das man daran Arbeitet.
Das kann im Moment noch nicht von der Grafikkarte berechnet werden und deshalb ist es derzeit ein Unding.
Die Quake 3 Engine von der Uni sieht uebrigens meiner Meinung nach nicht so toll aus weil sie das Quake 3 Geruest verwendet. Figuren mit nur ein paar hundert Polygonen sind heutzutage nun mal veraltet, die Texturen sind schlecht etc.
Die Engine soll ja nur die Korrekte Berechnung der Umgebung demonstrieren wirklich gut aussehen tut sie meiner Meinung nach nicht.
Die Unreal Engine kommt da mit um die 10000 Polygonen pro Charakter schon weitaus besser rueber.
Der Style sieht meiner Meinung nach sehr gut aus, es wirkt sehr harmonisch und realitaets nah.
Bis Ray Traced so weit ist dauert es noch seine Zeit aber es ist gut das man daran Arbeitet.
-
johndoe-freename-62350
- Beiträge: 145
- Registriert: 17.01.2004 15:12
- Persönliche Nachricht:
man, manche schreiben ja wirklich echten lödsinn 
Also das was ich von der U3-Engine gesehen habe wa schon der hammer, ok 2006/7 ist noch ne weile, aber so kann man schonmal schauen was so kommt.
Zum Thema 2te GraKa. Also zum Aufrüsten, also zusatz zur ersten Karte ist voll in Ordnung. Würde gut zum Asrock K8-Combo passen, perfekt zum Aufrüsten dadurch müßte man sich immerhin nit jedes 2te Jahr nen neuen Rechner kaufen, sondern nur Aufrüsten.
Mir ist das aber egal, besitze ne ATI Karte und das nächste System kaufe ich mir erst so Sommer 2005, noch lohnt sich dat nit
Also das was ich von der U3-Engine gesehen habe wa schon der hammer, ok 2006/7 ist noch ne weile, aber so kann man schonmal schauen was so kommt.
Zum Thema 2te GraKa. Also zum Aufrüsten, also zusatz zur ersten Karte ist voll in Ordnung. Würde gut zum Asrock K8-Combo passen, perfekt zum Aufrüsten dadurch müßte man sich immerhin nit jedes 2te Jahr nen neuen Rechner kaufen, sondern nur Aufrüsten.
Mir ist das aber egal, besitze ne ATI Karte und das nächste System kaufe ich mir erst so Sommer 2005, noch lohnt sich dat nit
-
johndoe-freename-49913
- Beiträge: 39
- Registriert: 31.07.2003 13:57
- Persönliche Nachricht:
Zum Thema Lödsinn...
... :wink: .Sag Das mal SSL_DarkMaster! Der hat ja schliesslich behauptet das irgendetwas mit der Raytracing engine auf seinen Athlon 64 mit 1nem gig ram
bei 800*600 flüssig läuft!
bei 800*600 flüssig läuft!
-
ewerybody
- Beiträge: 960
- Registriert: 29.10.2002 14:47
- Persönliche Nachricht:
Arkune, so hattich mir das auch gedenkt mit meiner Voodoo2. Aber war dann doch fürn Ar*ch...
Na wenn du dir dann ne 2. GeFX holst wirds sich nich nur die Grafikleistung verdoppeln.. sicher auch die Lautstärke! ´:]
Und klar sieht das geil aus mit der neuen Engine. Aber die tun ja gerade so, als wären sie die einzigen, die an Next-Gen Grafik werkeln!! Und das is einfach nur blind.
Und Hype mitmachen?!?! Also ich WILL geile Grafik haben. Und bin ich da alleine?!? Ich werd mir nur keine Graka für 500€ holen, das mit Sicherheit nich!
Na wenn du dir dann ne 2. GeFX holst wirds sich nich nur die Grafikleistung verdoppeln.. sicher auch die Lautstärke! ´:]
Und klar sieht das geil aus mit der neuen Engine. Aber die tun ja gerade so, als wären sie die einzigen, die an Next-Gen Grafik werkeln!! Und das is einfach nur blind.
Und Hype mitmachen?!?! Also ich WILL geile Grafik haben. Und bin ich da alleine?!? Ich werd mir nur keine Graka für 500€ holen, das mit Sicherheit nich!
- Black_Hand
- Beiträge: 672
- Registriert: 18.12.2002 23:47
- Persönliche Nachricht:
-
ErikStoni83
- Beiträge: 53
- Registriert: 11.06.2004 01:43
- Persönliche Nachricht:
Tja leute ich bin seid gut 8 jahre in der pc szene dabei hab schon viel miterlebt von vodoo 1 wo man ne normale dazusteckt usw.
Für meinen fall ist das der anfang einer riesen geldmache.
Aus dem grund hab ich mir auch ne XBox gekauft bin gerade dabei komplett auf konsole umzusteigen. Ich zock nurnoch sachen wie counter strike am pc aber ansonsten nein danke.
Vor ca 1 Jahr hab ich mir eine Geforce 4 Ti 4200 gekauft für 160€ = 320DM. Damals hätte ich niemals soviel ausgegeben für sowas. Da war 100dm schon teuerlich.
Wollt mich nurmal langsam verabschieden aus der pc szene.
Noch ein punkt klar konsole wird so gut wie nie an pc leistung rankommen aber dort werde ich nicht so dermaßen abgezockt nach den thema kauf dir aktuelle karte oder du wirst abgestuft als guter kunde.
Für meinen fall ist das der anfang einer riesen geldmache.
Aus dem grund hab ich mir auch ne XBox gekauft bin gerade dabei komplett auf konsole umzusteigen. Ich zock nurnoch sachen wie counter strike am pc aber ansonsten nein danke.
Vor ca 1 Jahr hab ich mir eine Geforce 4 Ti 4200 gekauft für 160€ = 320DM. Damals hätte ich niemals soviel ausgegeben für sowas. Da war 100dm schon teuerlich.
Wollt mich nurmal langsam verabschieden aus der pc szene.
Noch ein punkt klar konsole wird so gut wie nie an pc leistung rankommen aber dort werde ich nicht so dermaßen abgezockt nach den thema kauf dir aktuelle karte oder du wirst abgestuft als guter kunde.
- JimNorton
- Beiträge: 554
- Registriert: 24.02.2004 01:09
- Persönliche Nachricht:
mmhh
@ Arkune
1. Ich habe auch nie behauptet, das 3 grakas auf einem mobo laufen würden.
2. ES WAR EIN WITZ
Aber ist es nicht so, das Ati sich auch was einfallen lassen wird, um da mitzumachen ?
Auf den Zug springen die sicher auf, denn die Kuh mit Namen \"Spieler\" kann man sicher noch mehr melken.
Einen komplett neuen Core, wird es wohl so schnell nicht geben.
Beide Hersteller bringen doch in 6 Monaten schon wieder eine neue graka raus.
Da bleibt keine Zeit für einen Wechsel, zumal man damit gefahr läuft das der neue Core nicht mit der Konkurenz mithalten kann.
Und keiner kann sich den Verlust mehr leisten.
Die Software optimieren, is ja drollig.
Solange wir alle uns neue Hardware kaufen, und das mit uns machen lassen, wird wohl kaum ein Entwickler etwas machen.
Warum auch ? Die denken sich doch auch: \"Ach was solls, bis unser Spiel in den Regalen steht hat eh jeder Zocker ein passendes System, und wenn nicht, er kauft sich das Spiel eh und rüstet dann auf\"
1. Ich habe auch nie behauptet, das 3 grakas auf einem mobo laufen würden.
2. ES WAR EIN WITZ
Aber ist es nicht so, das Ati sich auch was einfallen lassen wird, um da mitzumachen ?
Auf den Zug springen die sicher auf, denn die Kuh mit Namen \"Spieler\" kann man sicher noch mehr melken.
Einen komplett neuen Core, wird es wohl so schnell nicht geben.
Beide Hersteller bringen doch in 6 Monaten schon wieder eine neue graka raus.
Da bleibt keine Zeit für einen Wechsel, zumal man damit gefahr läuft das der neue Core nicht mit der Konkurenz mithalten kann.
Und keiner kann sich den Verlust mehr leisten.
Die Software optimieren, is ja drollig.
Solange wir alle uns neue Hardware kaufen, und das mit uns machen lassen, wird wohl kaum ein Entwickler etwas machen.
Warum auch ? Die denken sich doch auch: \"Ach was solls, bis unser Spiel in den Regalen steht hat eh jeder Zocker ein passendes System, und wenn nicht, er kauft sich das Spiel eh und rüstet dann auf\"
- GabbaGabbaHey
- Beiträge: 535
- Registriert: 03.05.2003 14:11
- Persönliche Nachricht:
Ich fand NVidia eigentlich immer ganz cool...
...habe selbst eine TI4800 war auch bis vor ein paar Wochen mit zufrieden, aber ich glaube das mit den DoppelGrafikarten ist der falsche Weg...
...mal schauen wie das ATI in Zukunft anpackt...
...kaufe mir heute übrigens eine ASUS x800 Pro...
...hoffe damit kann ich erstmal leben bzw. so spiele spielen wie DOom3 und HL 2...

...habe selbst eine TI4800 war auch bis vor ein paar Wochen mit zufrieden, aber ich glaube das mit den DoppelGrafikarten ist der falsche Weg...
...mal schauen wie das ATI in Zukunft anpackt...
...kaufe mir heute übrigens eine ASUS x800 Pro...
...hoffe damit kann ich erstmal leben bzw. so spiele spielen wie DOom3 und HL 2...
-
johndoe-freename-68307
- Beiträge: 54
- Registriert: 13.06.2004 13:01
- Persönliche Nachricht:
Duallösungen sind Zukunftsträchtig!
Derzeit steht die Fertigung neuer Chips bei allen Herstellern Still, denn die weitere Verkleinerung scheint mehr Probleme zu bringen, als erwartet... und irgendwann ist mit der aktuellen Methode, immer mehr zweidimensional auf einen Chip zu stopfen, vorbei...
Duallösungen (wie Apples dual G5) sind daher durchaus eine Möglichkeit, Günstig mehr Leistung anzubieten... es ist nur eine Frage, wie man das umsetzen will...
2 Grafikkarten sind imo ne nette Idee, aber wäre es nicht sinvoller, eine Karte mit 2 Chips auszustatten? Oder vielleicht sogar von der Kartenbauweise wegzugehen und Grafikkarten anders im Rechner zu implementieren, wo sie mehr Platz, bessere Lüftung und effizientere Bauweisen ausnutzen können...
Zum Thema Raytracing:
Die Technik ist alt... wird aber im Gegensatz zu den bekannten Renderingverfahren nicht von der Hardware unterstützt... also bringt die Superduper NVIDIA oder ATI Karte da gar nichts... insofern braucht man Momentan nen Cluster, wenn man Q3A auf einer nicht sonderlich optimierten Raytracingengine zocken will.
Technisch wäre es aber möglich, auch Raytracing-Beschleuniger zu entwickeln, dann würde es auch mit 3 GHz Prozzies flüssig laufen.
Wer mal ne Raytracingengine in action sehen will, der läd sich mal hier was runter:
http://www.realstorm.com/
Derzeit steht die Fertigung neuer Chips bei allen Herstellern Still, denn die weitere Verkleinerung scheint mehr Probleme zu bringen, als erwartet... und irgendwann ist mit der aktuellen Methode, immer mehr zweidimensional auf einen Chip zu stopfen, vorbei...
Duallösungen (wie Apples dual G5) sind daher durchaus eine Möglichkeit, Günstig mehr Leistung anzubieten... es ist nur eine Frage, wie man das umsetzen will...
2 Grafikkarten sind imo ne nette Idee, aber wäre es nicht sinvoller, eine Karte mit 2 Chips auszustatten? Oder vielleicht sogar von der Kartenbauweise wegzugehen und Grafikkarten anders im Rechner zu implementieren, wo sie mehr Platz, bessere Lüftung und effizientere Bauweisen ausnutzen können...
Zum Thema Raytracing:
Die Technik ist alt... wird aber im Gegensatz zu den bekannten Renderingverfahren nicht von der Hardware unterstützt... also bringt die Superduper NVIDIA oder ATI Karte da gar nichts... insofern braucht man Momentan nen Cluster, wenn man Q3A auf einer nicht sonderlich optimierten Raytracingengine zocken will.
Technisch wäre es aber möglich, auch Raytracing-Beschleuniger zu entwickeln, dann würde es auch mit 3 GHz Prozzies flüssig laufen.
Wer mal ne Raytracingengine in action sehen will, der läd sich mal hier was runter:
http://www.realstorm.com/
