Reicht das Netzteil für die Grafikkarte?

Hier gibt es Tipps und Ratschläge für Bastler, Schrauber und Übertakter.

Moderatoren: Moderatoren, Redakteure

Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Infi88 hat geschrieben:
sourcOr hat geschrieben:
Kephis hat geschrieben:Die Angabe von Nvidia und AMD beziehen sich auf die Gesamt Leistung des Netzteils und nicht auf einzelne Schienen. Als Beispiel zieht sogar eine 480 mit nem auf > 4ghz OC Intel Extreme Edition nichtmal 500W unter Last.
Ich hab das schon auf das Komplettsystem bezogen. Da die Empfehlung ja für ausgeglichene System gilt, hätte ich die 300W pauschal als zuwenig eingestuft, willst ja schließlich auch nen "bisschen" Puffer bei solchen Nonames haben :)
Ausserdem zieht es das, sogar mt nem normalen Quad Core kommt man auf diese Werte. Selbst ohne OC zieht ne GTX480 und en Intel i7 Quad, wenn man den Kombuster oder Furmark anmacht + Prime weit mehr als 500Watt.

Und selbst wenn nicht kauft man sich nicht ein NT nach Maximaler Leistung sondern packt eigentlich immer 100 Watt auf die mögliche Peakload drauf, und schaut das das NT auch bei 20-50% Last effizient läuft. Das ist am gesundesten für alle, Portemonnaie und Komponenten :D .
Das stimmt so nicht hier mal ein CB Test (ja ich weiß CB ist bei Leistungsaufnahme eher mit vorsicht zu genießen aber man bekommt nen anhaltspunkt):, dort kommt ein I7 965 Extreme Edition @3,87ghz zum einsatz auf einem ASUS Rampage 2 Extreme X58 Board (was ja auch ne Stromschleuder sonder gleichen ist). Wennst dor den Test der GTX580 ansiehst dann kommt der I7 965 mit GTX480 unter Vollast (Furmark) auf 448W und eine GTX580 unter Vollast (Furmark) auf 428W. Also reichen 500W dicke da man im "normalen" Betrieb eh nie weiter als 300W kommt und wer lässt Furmark schon die ganze laufen, aber auch wenn jemand das tut reicht aus ohne an die Reserven zu müssen oder dergleichen. Die Netzteile können ja alle um einiges mehr ab als angegeben (rede jetzt von den Markenteilen), mein Seasonic X560 (ja ich weiß 90+ Gold semipassiv Luxus Netzteil und nicht ganz vergleichbar) kann locker bis 700W aushalten ohne murren und über Jahre!
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
Infi88
Beiträge: 2136
Registriert: 26.10.2005 00:42
Persönliche Nachricht:

Beitrag von Infi88 »

Kephis hat geschrieben:
Infi88 hat geschrieben:
sourcOr hat geschrieben: Ich hab das schon auf das Komplettsystem bezogen. Da die Empfehlung ja für ausgeglichene System gilt, hätte ich die 300W pauschal als zuwenig eingestuft, willst ja schließlich auch nen "bisschen" Puffer bei solchen Nonames haben :)
Ausserdem zieht es das, sogar mt nem normalen Quad Core kommt man auf diese Werte. Selbst ohne OC zieht ne GTX480 und en Intel i7 Quad, wenn man den Kombuster oder Furmark anmacht + Prime weit mehr als 500Watt.

Und selbst wenn nicht kauft man sich nicht ein NT nach Maximaler Leistung sondern packt eigentlich immer 100 Watt auf die mögliche Peakload drauf, und schaut das das NT auch bei 20-50% Last effizient läuft. Das ist am gesundesten für alle, Portemonnaie und Komponenten :D .
Das stimmt so nicht hier mal ein CB Test (ja ich weiß CB ist bei Leistungsaufnahme eher mit vorsicht zu genießen aber man bekommt nen anhaltspunkt):, dort kommt ein I7 965 Extreme Edition @3,87ghz zum einsatz auf einem ASUS Rampage 2 Extreme X58 Board (was ja auch ne Stromschleuder sonder gleichen ist). Wennst dor den Test der GTX580 ansiehst dann kommt der I7 965 mit GTX480 unter Vollast (Furmark) auf 448W und eine GTX580 unter Vollast (Furmark) auf 428W. Also reichen 500W dicke da man im "normalen" Betrieb eh nie weiter als 300W kommt und wer lässt Furmark schon die ganze laufen, aber auch wenn jemand das tut reicht aus ohne an die Reserven zu müssen oder dergleichen. Die Netzteile können ja alle um einiges mehr ab als angegeben (rede jetzt von den Markenteilen), mein Seasonic X560 (ja ich weiß 90+ Gold semipassiv Luxus Netzteil und nicht ganz vergleichbar) kann locker bis 700W aushalten ohne murren und über Jahre!
Ja richtig les aber genau was ich geschrieben hab, CB testet da ja auch den 100%GPU Load, das ist ja bei nem Grakatest auch korrekt so. Nur Furmark lastet den Prozi nur zu circa. 15% aus, bei der CPU.
Wenn du Prime noch anwirfst wie ich es geschrieben hab kommt der weit über die 500Watt Marke. Das ist zwar nicht wirklich alltags realistisch, zumindest bei den meisten ;D, stellt aber die maximale Leistungsfähigkeit des Systems da, und dem sollte man das NT auch anpassen, der CB Tester hat ja auch en 850Watt NT :ugly: .
Aber gut ich würd auch sagen 500Watt Gold würden reichen, für den Normalo :wink: .

PS;Ich hab übrigens son ähnliches NT wie du glaub ich, das dreht erst ab 450Watt etwa und seit Linus Tech Tips Referat über Gold Netzteile bin ich erleuchtet :Sonne: und spare fleißig Strom inklusive Kosten. Leider ist das bei den meisten nicht so, Graka ab 200€ kein problem, und beim NT machen alle das Sparbrötchen, da wird man zum Radikalen dann ;).
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Ja nur wie gesagt wie oft hast du normalerweise diese Last? Genau niemals! DU hast ja nichtmal im alltag nur 100% GPU Last oder nur 100% CPU last wann sollten also szenarien auftreten wo man gleichzeitig und über einen längeren Zeitraum (mehrere sek) 100% Last auf GPU und CPU hat?

Aber du hast natürlich recht wenn der TE plant nur Furmark und Prime laufen zu lassen dann braucht er ein neues Netzteil aber das wäre dann auch ein sehr spezieller Anwendungsfall.[/spoiler]
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
Infi88
Beiträge: 2136
Registriert: 26.10.2005 00:42
Persönliche Nachricht:

Beitrag von Infi88 »

Kephis hat geschrieben:Ja nur wie gesagt wie oft hast du normalerweise diese Last? Genau niemals! DU hast ja nichtmal im alltag nur 100% GPU Last oder nur 100% CPU last wann sollten also szenarien auftreten wo man gleichzeitig und über einen längeren Zeitraum (mehrere sek) 100% Last auf GPU und CPU hat?

Aber du hast natürlich recht wenn der TE plant nur Furmark und Prime laufen zu lassen dann braucht er ein neues Netzteil aber das wäre dann auch ein sehr spezieller Anwendungsfall.[/spoiler]
Ne natürlich nicht :twisted: , das war ja auch nur en extrem Beispiel, was das System insgesamt verbrauchen kann, und das war halt im GPU testgraph nicht wirklich dargestellt, deshalb hab ich das erwähnt, man sollte niemals nie sagen ;).

Aber als normaler Zocker kommst du bei dem System was der beim Test verwendet hat vllt. auch in diese Region, speziell Furmark packt zwar immer noch en Tick drauf, aber da würde ich Vorsichtig sein.

Gewisse Spiele haun schon rein weil sie, halt die GPU immer weiter rechnen lassen was zu voller Auslastung führt und teilweise auch ziemlich auf die CPU gehn. Metro2033,Crysis2,Crysis1,F1 2010, GTA 4(omg!) hab ich da als Beispiele gerad auf der Platte.
Dazu müsste man natürlich normaler Zocker definieren und er hat ja "nur" GTX570, aber bei mir schlägt es da Regelmäsig die Tachonadel raus wenn ich hin und wieder mal das Brennenstuhl Messgerät rein mach, weit mehr als der Furmark Messwert da im CB Test, und auch dauerhaft, also neuere technisch starke Spiele gehn trotz konsolierung dem Rechner schon an die Nieren, da muss das NT schon mitziehn.
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Also ich kenn kein einziges game was die shader so überproprtional beansprucht wie Furmark vorallem da Furmark die Karte auch auf völlig andere weise ausnutzt wie spiele. Stell dir nen Automotor vor, du kannst heute jedes Auto auch absichtlich kaputt machen in dem du den Motor hochdrehst, trotzdem verlangt keiner das alle Autos das plötzlich aushalten müssen weil eh jeder weiß das es nichtmal annähernd reale Szenarien sind.
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
Infi88
Beiträge: 2136
Registriert: 26.10.2005 00:42
Persönliche Nachricht:

Beitrag von Infi88 »

Kephis hat geschrieben:Also ich kenn kein einziges game was die shader so überproprtional beansprucht wie Furmark vorallem da Furmark die Karte auch auf völlig andere weise ausnutzt wie spiele. Stell dir nen Automotor vor, du kannst heute jedes Auto auch absichtlich kaputt machen in dem du den Motor hochdrehst, trotzdem verlangt keiner das alle Autos das plötzlich aushalten müssen weil eh jeder weiß das es nichtmal annähernd reale Szenarien sind.
jo, Furmark macht noch ganz andere Sachen. Deshalb müsste man schon vom realistischen Szenario noch was abziehn, da muss ich dir rechtgeben. Allerdings lastet Furmark halt die CPU nicht wirklich aus, manche Spiele könnnen das noch zusätzlich ;).Aber über 500Watt dauerhaft kommt man auch da nicht da haste recht.
dcc
Beiträge: 2491
Registriert: 08.08.2008 15:28
Persönliche Nachricht:

Beitrag von dcc »

WoW Spieler brauchen so etwas. Während sie im Spiel ständig warten, werden andere games nebenbei gezockt :D Vor der nächsten Konsolengeneration braucht man seit der Q6600 Zeit nicht weiter aufrüsten.
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

dcc hat geschrieben:WoW Spieler brauchen so etwas. Während sie im Spiel ständig warten, werden andere games nebenbei gezockt :D Vor der nächsten Konsolengeneration braucht man seit der Q6600 Zeit nicht weiter aufrüsten.
Naja das kommt ja immer auf den Anspruch an!
Man kann Leistung ja fast 1 zu 1 in Bildquali umsetzten aber du hast recht für Full HD und Max Details brauchst das nicht. Aber sobald man wie ich z.b. anfängt SSAA, Downsampling, SSAO und dergleichen zu nutzten oder gar Multi Monitor oder 3D Vision Surround dann reichen nichtmal die Karten die grade am Markt sind aus. Ich komme mit meinem I5 2500k @4,7ghz und meiner GTX 560@ 1ghz nicht hin und werde die 560er gegen die 580er 3gb tauschen.

Es kommt wie so oft immer auf das individuelle Nutzerverhalten an pauschale Aussagen sind da immer schwierig. Wenn man jetzt noch bedenkt das Big N zur E3 sein "Project Cafe" ankündigt, was sicherlich über PS3/XBOX liegen wird, dann kommt man auch bald zu dem Schluß das auch MS und Sony nicht mehr Jahre mit der Ankündigung warten werden und dann kann alles sehr schnell gehen. Neue Konsolengen würde die gesamte Landschaft über den Haufen werfen und die Grafik Meßlatte n gutes Stück nach oben verschieben.
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
Infi88
Beiträge: 2136
Registriert: 26.10.2005 00:42
Persönliche Nachricht:

Beitrag von Infi88 »

Kephis hat geschrieben:
dcc hat geschrieben:WoW Spieler brauchen so etwas. Während sie im Spiel ständig warten, werden andere games nebenbei gezockt :D Vor der nächsten Konsolengeneration braucht man seit der Q6600 Zeit nicht weiter aufrüsten.
Naja das kommt ja immer auf den Anspruch an!
Man kann Leistung ja fast 1 zu 1 in Bildquali umsetzten aber du hast recht für Full HD und Max Details brauchst das nicht. Aber sobald man wie ich z.b. anfängt SSAA, Downsampling, SSAO und dergleichen zu nutzten oder gar Multi Monitor oder 3D Vision Surround dann reichen nichtmal die Karten die grade am Markt sind aus. Ich komme mit meinem I5 2500k @4,7ghz und meiner GTX 560@ 1ghz nicht hin und werde die 560er gegen die 580er 3gb tauschen.

Es kommt wie so oft immer auf das individuelle Nutzerverhalten an pauschale Aussagen sind da immer schwierig. Wenn man jetzt noch bedenkt das Big N zur E3 sein "Project Cafe" ankündigt, was sicherlich über PS3/XBOX liegen wird, dann kommt man auch bald zu dem Schluß das auch MS und Sony nicht mehr Jahre mit der Ankündigung warten werden und dann kann alles sehr schnell gehen. Neue Konsolengen würde die gesamte Landschaft über den Haufen werfen und die Grafik Meßlatte n gutes Stück nach oben verschieben.
Da helfen dir die 3GB aber net ;D, oder spielst du auf 2 Monitoren ?
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Bei was meinst du helfen 3gb nicht?
Und Multi Monitor habe ich ja geschrieben mit Eyefinity und 3D Vision Surround und für SSAA und DS hilft jedes Gigabyte. Ich bekomme den VRAM ner normalen GTX580 voll ohne es extra drauf anzulegen wenn du z.b. HD Textures verwendest oder sogar ohne HD Textures kann es in spielen eng werden wie z.b. GTA 4, Stalker, F1 2010 usw........

Aber Achtung nur weil der VRAM ausgeht heißt es nicht mehr unbedingt wie früher das die Frames sofort in den einstelligen Bereich fallen! F1 2010 ist ein tolles Beispiel hierfür das belegt auf max @ 1080p ohne Mods locker >1gb mit Mods >1,5gb und trotzdem ist es spielbar auf ner GTX580 1,5gb.
Es bricht zwar ein auf ~30fps aber bei weitem nicht so extrem wie früher wo es sofort einstellig wurde.
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Benutzeravatar
Infi88
Beiträge: 2136
Registriert: 26.10.2005 00:42
Persönliche Nachricht:

Beitrag von Infi88 »

Kephis hat geschrieben:Bei was meinst du helfen 3gb nicht?
Und Multi Monitor habe ich ja geschrieben mit Eyefinity und 3D Vision Surround und für SSAA und DS hilft jedes Gigabyte. Ich bekomme den VRAM ner normalen GTX580 voll ohne es extra drauf anzulegen wenn du z.b. HD Textures verwendest oder sogar ohne HD Textures kann es in spielen eng werden wie z.b. GTA 4, Stalker, F1 2010 usw........

Aber Achtung nur weil der VRAM ausgeht heißt es nicht mehr unbedingt wie früher das die Frames sofort in den einstelligen Bereich fallen! F1 2010 ist ein tolles Beispiel hierfür das belegt auf max @ 1080p ohne Mods locker >1gb mit Mods >1,5gb und trotzdem ist es spielbar auf ner GTX580 1,5gb.
Es bricht zwar ein auf ~30fps aber bei weitem nicht so extrem wie früher wo es sofort einstellig wurde.
Naja du schaffst hier den 3GB Mythos wo hast du den Schmarn her ?
Die GTX580 kann kein 3D Vision Surround da sie wie jede aktuelle NVidia GPU nur 2 Taktgeber hat, dazu brauchst du 2 dieser Monster.
Die 1.5GB reichen auch für F1 Mods locker aus ;)
Die GTX580 kann ausserdem eh meist nur knapp 2GB gleichzeitig verwalten, der Rest verpufft, frag 3GB Besitzer.
Die 3GB Version ist eigentlich völl überflüssig da sie dadurch teils verlangsamt wird (1-3%) und auf 12*128mb vram optimiert ist, nicht 12*256mb. http://www.hardwareluxx.de/index.php/ar ... l?start=13

Und bei GTA4 kann ich aus eigener Erfahrung sprechen, das Spiel ist immer noch ziemlich schlecht optimiert, auch die interne Anzeige Option was Auslastung angeht sollte man nicht zu Ernst nehmen, die stimmt nämlich eigentlich nicht ;D.
Obwohl ich dir rechtgeben muss das da evtl. mal ein Nutzen entstehn könnte, denn auch beim Downsampling beschränkt der Chip, nicht die vRam Größe.
dcc
Beiträge: 2491
Registriert: 08.08.2008 15:28
Persönliche Nachricht:

Beitrag von dcc »

Naja für 3D würde ich eh nicht aufrüsten, die Technik ist noch völlig unausgereift und es gibt keinen Standard. Z.b. dass man die doppelte Power braucht.

Es gibt bereits Techniken, die das 3D Bild auf der Hardware erzeugen und als Gesamtpaket an den Monitor liefern. Dabei wird es kopiert und verschoben, dann an den Monitor geschickt. Dass du 2 Karten brauchst, liegt einfach an der momentanen 3D Abzocke. Man berechnet die verschobenen Bilder vollständig - wozu?
Benutzeravatar
Infi88
Beiträge: 2136
Registriert: 26.10.2005 00:42
Persönliche Nachricht:

Beitrag von Infi88 »

dcc hat geschrieben:Naja für 3D würde ich eh nicht aufrüsten, die Technik ist noch völlig unausgereift und es gibt keinen Standard. Z.b. dass man die doppelte Power braucht.

Es gibt bereits Techniken, die das 3D Bild auf der Hardware erzeugen und als Gesamtpaket an den Monitor liefern. Dabei wird es kopiert und verschoben, dann an den Monitor geschickt. Dass du 2 Karten brauchst, liegt einfach an der momentanen 3D Abzocke. Man berechnet die verschobenen Bilder vollständig - wozu?
Das Bild wird nicht nur verschoben sondern auch Farbtöne verändert die dann von den Shutterbrillen gefiltert werden, eins für jedes Auge. Aber jedes Auge braucht ja das volle Bild ?! Zumindest bei der Technik, daher der Performance verbrauch. Oder meinst du das mit den 3 Monitoren ? Das ist sowiso Fail, weil man halt 2 Monster Karten braucht für dieses "Erlebnis" was gerad im Spielebereich stark begrenzt ist.
Da bin ich auch deiner Meinung da muss man andere Wege einschlagen, auch wenn mich das Thema trotz Gtx580 und 120hz TFT nicht wirklich interessiert, ich hab da wenn überhaupt bei Filmen Bedarf.

Das oben an Kephis wirkt auch etwas denunzierend, nicht falsch verstehn, mich schreib immer so :twisted: . Wenn du sie ohne Aufpreis kriegst ist das schon ok, bei der Phantom ist das glaub ich auch standard. Aber die schnellere GTX580 kriegt man damit meist auch beim Downsampling etc. nicht.
butzman
Beiträge: 423
Registriert: 25.09.2007 22:28
Persönliche Nachricht:

Beitrag von butzman »

Infi88 hat geschrieben:
Kephis hat geschrieben:Bei was meinst du helfen 3gb nicht?
Und Multi Monitor habe ich ja geschrieben mit Eyefinity und 3D Vision Surround und für SSAA und DS hilft jedes Gigabyte. Ich bekomme den VRAM ner normalen GTX580 voll ohne es extra drauf anzulegen wenn du z.b. HD Textures verwendest oder sogar ohne HD Textures kann es in spielen eng werden wie z.b. GTA 4, Stalker, F1 2010 usw........

Aber Achtung nur weil der VRAM ausgeht heißt es nicht mehr unbedingt wie früher das die Frames sofort in den einstelligen Bereich fallen! F1 2010 ist ein tolles Beispiel hierfür das belegt auf max @ 1080p ohne Mods locker >1gb mit Mods >1,5gb und trotzdem ist es spielbar auf ner GTX580 1,5gb.
Es bricht zwar ein auf ~30fps aber bei weitem nicht so extrem wie früher wo es sofort einstellig wurde.
Naja du schaffst hier den 3GB Mythos wo hast du den Schmarn her ?
Die GTX580 kann kein 3D Vision Surround da sie wie jede aktuelle NVidia GPU nur 2 Taktgeber hat, dazu brauchst du 2 dieser Monster.
Die 1.5GB reichen auch für F1 Mods locker aus ;)
Die GTX580 kann ausserdem eh meist nur knapp 2GB gleichzeitig verwalten, der Rest verpufft, frag 3GB Besitzer.
Die 3GB Version ist eigentlich völl überflüssig da sie dadurch teils verlangsamt wird (1-3%) und auf 12*128mb vram optimiert ist, nicht 12*256mb. http://www.hardwareluxx.de/index.php/ar ... l?start=13

Und bei GTA4 kann ich aus eigener Erfahrung sprechen, das Spiel ist immer noch ziemlich schlecht optimiert, auch die interne Anzeige Option was Auslastung angeht sollte man nicht zu Ernst nehmen, die stimmt nämlich eigentlich nicht ;D.
Obwohl ich dir rechtgeben muss das da evtl. mal ein Nutzen entstehn könnte, denn auch beim Downsampling beschränkt der Chip, nicht die vRam Größe.
Danke für diesen Beitrag... wollte auch was zu dieser irrsinnigen Annahme schreiben - aber du warst schneller und hast alles zu dem Thema gesagt.

BtW... sorry für Offtopic ;-)
Wer sich für Ruinen und verlassene Gebäude interessiert, der klickt hier: http://www.fotocommunity.de/pc/pc/mypics/626846


Bild
Bild

[img]http://g.bf3stats.com/pc/3FLa01Pg/19Robin74.png[/img]
Kephis
Beiträge: 391
Registriert: 12.06.2009 21:14
Persönliche Nachricht:

Beitrag von Kephis »

Infi88 hat geschrieben:
Kephis hat geschrieben:Bei was meinst du helfen 3gb nicht?
Und Multi Monitor habe ich ja geschrieben mit Eyefinity und 3D Vision Surround und für SSAA und DS hilft jedes Gigabyte. Ich bekomme den VRAM ner normalen GTX580 voll ohne es extra drauf anzulegen wenn du z.b. HD Textures verwendest oder sogar ohne HD Textures kann es in spielen eng werden wie z.b. GTA 4, Stalker, F1 2010 usw........

Aber Achtung nur weil der VRAM ausgeht heißt es nicht mehr unbedingt wie früher das die Frames sofort in den einstelligen Bereich fallen! F1 2010 ist ein tolles Beispiel hierfür das belegt auf max @ 1080p ohne Mods locker >1gb mit Mods >1,5gb und trotzdem ist es spielbar auf ner GTX580 1,5gb.
Es bricht zwar ein auf ~30fps aber bei weitem nicht so extrem wie früher wo es sofort einstellig wurde.
Naja du schaffst hier den 3GB Mythos wo hast du den Schmarn her ?
Die GTX580 kann kein 3D Vision Surround da sie wie jede aktuelle NVidia GPU nur 2 Taktgeber hat, dazu brauchst du 2 dieser Monster.
Die 1.5GB reichen auch für F1 Mods locker aus ;)
Die GTX580 kann ausserdem eh meist nur knapp 2GB gleichzeitig verwalten, der Rest verpufft, frag 3GB Besitzer.
Die 3GB Version ist eigentlich völl überflüssig da sie dadurch teils verlangsamt wird (1-3%) und auf 12*128mb vram optimiert ist, nicht 12*256mb. http://www.hardwareluxx.de/index.php/ar ... l?start=13

Und bei GTA4 kann ich aus eigener Erfahrung sprechen, das Spiel ist immer noch ziemlich schlecht optimiert, auch die interne Anzeige Option was Auslastung angeht sollte man nicht zu Ernst nehmen, die stimmt nämlich eigentlich nicht ;D.
Obwohl ich dir rechtgeben muss das da evtl. mal ein Nutzen entstehn könnte, denn auch beim Downsampling beschränkt der Chip, nicht die vRam Größe.
Das sollte wohl jedem als vorraussetzung klar sein das aufgrund von nur 2x RAMDAC 3D Vision Surround nur im SLI geht, das habe ich jetzt einfach mal als Allgemeinwissen voraus gesetzt sry hätte ich wahrscheinlich deutlicher machen sollen.

Was GTA 4 angeht mag sein das es ziemlich schlecht optimiert ist aber das ist mir als user der das game zocken will ja egal. Du hast aber recht was die 3gb angeht die bekommst nicht voll aber die 1,5gb schon und hier liegt der hund begraben. Denn ne 1,5gb Karte bricht dir weg (nicht so wie früher aber immer noch) sobald sagen wir 2gb gebraucht werden und du kommst in unspielbare Bereiche, bei einer 3gb Version ist die selbe Szene flüssig spielbar. Und du kommst wirklich sogar ohne große Mods und in 1080p auf > 1m5gb VRAM Verbrauch. WQie du z.b. hier siehst braucht F1 2010 OHNE MODS oder dergleichen einfach in 2560x1600 mit 2xAA 1,5gb! Kannst dir ja denken wie gut da die GTX 580 1,5gb ist sobald MODs hohe Hybrid AA oder SSAA Stufen und vielleicht noch AO dazu kommen.
Nächstes Beispiel (selber Link) betrifft Crysis 2 in 2560x1600 1,2gb VRAM Verbrauch, CoD Black Ops 1gb, Stalker 1,3gb usw..............
Das alles ohne Mods oder dergleichen!
Intel I5 2500k @ 4,7ghz, Noctua NH-D14, AsRock Extreme 4, 2x2gb DDR3 1600 Corsair, OCZ Vertex 2E 60gb, Crucial C300 128gb, Samsung Ecogreen F4 2000gb, Seasonic X-560 90 Gold semipassiv, NZXT Phantom schwarz, GeForce GTX560 POV Charged Edition @1ghz
[img]http://img688.imageshack.us/img688/8733/deusexsig.jpg[/img]
Antworten