Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
cM0
Moderator
Beiträge: 8847
Registriert: 30.08.2009 22:58
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von cM0 »

Ryan2k6 hat geschrieben: 05.09.2020 10:49
cM0 hat geschrieben: 05.09.2020 02:03
OpiDeluxe hat geschrieben: 05.09.2020 00:27 220W+?
320W TDP für die 3080, 350W TDP für die 3090 :) Ja, vor 2 Generationen sah das noch anders aus.
Ehrlich gesagt stört mich das viel mehr, als die "nur" 10GB VRAM. Ich habe auch deswegen immer gern 70er bzw. jetzt 60er Karten genutzt, weil die einfach effizienter waren.

Ach ich weiß echt nicht...vielleicht doch nur die 3070 und WQHD? :cry:

Aber CP2077 wäre bestimmt geil in 4K. :cry:
Kann ich sehr gut verstehen. Stromverbrauch wäre für mich nicht so das große Argument, da der Rechner zum Glück eher selten voll ausgelastet ist, aber ich bräuchte dafür (und auch für Big Navi) auf jeden Fall ein neues Netzteil und so eine Grafikkarte muss auch gekühlt werden. Hoffen wir, dass der neue Kühler wirklich so gut und leise ist.
Man kann mit Undervolting aber sicher einiges drehen, wie Leon-X schon sagt. Das ging bisher immer und wenn man nicht unbedingt das Maximum ausreizen / austesten will, findet man einen groben Richtwert im Internet und kann dies mit 2 Klicks einstellen und das heißt nicht, dass die Karte dann langsamer läuft. Nur energiesparender.

Liesel Weppen hat geschrieben: 05.09.2020 11:45
cM0 hat geschrieben: 04.09.2020 22:10 Mir sind 60 FPS übrigens auch nicht so wichtig. Hab ich, glaube ich, weiter vorn schon geschrieben. Aber mit der Meinung stehe ich relativ allein da. Die meisten wollen nicht unter 60 FPS fallen, was eigentlich eher 60 FPS als Minimum und nicht als Durchschnitt bedeutet.
Da möchte ich nochmal einhaken, weil ich weiter vorne auch geschrieben habe, das 60fps für mich Mindestanforderung ist.
Die 60fps kommen für mich zustande, weil ich von einem Monitor mit 60Hz ausgehe. Wirklich "flüssig" gehen da nur 60fps oder dann halt gleich nur 30fps. Und 30 ist mir, selbst in Strategiespielen, zu wenig. Das ruckelt einfach, und wenns nur beim "über die Karte scrollen" ist.
Wenn ich einen Monitor mit FreeSync/G-Sync hätte und damit das Problem nichtmehr FPS VS Hz ist, würden mir in vielen Spielen wohl auch 50, vielleicht sogar nur 40fps reichen. Aber auf einem 60Hz Monitor fällt es mir sofort auf, wenn die FPS unter 60 gehen, selbst wenn sie nur auf 55 gehen, weil das dann wegen dem Monitor-Sync anfängt zu "eiern". Deswegen will ich auch einen Monitor mit "FlexSync" haben. Und selbst wenn der dann 144Hz haben sollte, werde ich weiterhin einen Framelimiter auf irgendwas um die 60 setzen. Mehr als 60 bringt mir persönlich nämlich auch nichts. Dagegen sollte die Framerate egal bei welchem Wert möglichst stabil sein.
Ja, das kann ich gut nachvollziehen. Ich komme mit 30 FPS meistens hin, aber die müssen dann auch absolut stabil sein. Mir sind stabile 30 FPS auch lieber als schwankende 40 - 50, denn das sieht man auf meinem 120 Hz Monitor (der eigentlich kein Monitor ist, sondern ein TV und nur mit 60 Hz angesteuert wird, weil er kein HDMI 2.1 hat) auch sehr stark.
Persönlich würde ich für die Zukunft aber schon gern 60 FPS als Minimum anpeilen. Meinen TV werde ich so schnell nicht ersetzen und Freesync oder eine vergleichbare Technik unterstützt der leider nicht, sonst könnte ich auch mit weniger FPS leben.
Aber ja, Fazit: Stabil müssen die FPS auf jeden Fall sein.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Liesel Weppen »

Termix hat geschrieben: 05.09.2020 12:33 Ne du das stimmt nicht mehr, das war früher mal so, mittlerweile gibt es eigentlich in jedem Game V-Sync mit Triple Buffering, erhöht zwar inputlag aber du hast nicht 30 ODER 60 fps.
Tripplebuffering verhindert Tearing auch ohne V-Sync, das stimmt, aber alles andere als 30 oder 60fps ist auf einem 60Hz Monitor trotzdem nicht flüssig. Wenn das Spiel, egal ob mit oder ohne Tripplebuffering z.B. 45fps liefert, zeigt der Monitor einen Frame 2 Refreshzyklen lang an, den nächsten nur einen, er kann nicht einfach wie xSync-Monitore seine Refreshzyklen auf 45 oder 90Hz ändern. Und wegen dieser Unbeständigkeit "eiert" die Wiedergabe und sieht dadurch noch ruckliger aus, als es gleichmäßig wiedergegebene 45fps täten.
Termix hat geschrieben: 05.09.2020 12:33 Und wenn du nen neuen Monitor kaufst, solltest du nach G-Sync (1 Hz-max refresh rate) oder Free-Sync Monitoren mit LFC gucken, welche im Idealfall auch G-Sync compatible sind.
1 Hz ist bei G-Sync aber auch Marketing, 30 fps brauchst du schon, während Free-Sync/G-Sync compatible meist bei 40fps anfängt.
Jup, und durch dieses Sync wird eben vorallem auch dieses Hz-Geruckel behoben, nicht nur Tearing.
Termix
Beiträge: 1046
Registriert: 08.06.2008 14:19
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Termix »

Liesel Weppen hat geschrieben: 05.09.2020 12:52Wenn das Spiel, egal ob mit oder ohne Tripplebuffering z.B. 45fps liefert, zeigt der Monitor einen Frame 2 Refreshzyklen lang an, den nächsten nur einen, er kann nicht einfach wie xSync-Monitore seine Refreshzyklen auf 45 oder 90Hz ändern. Und wegen dieser Unbeständigkeit "eiert" die Wiedergabe und sieht dadurch noch ruckliger aus, als es gleichmäßig wiedergegebene 45fps täten.

Jup, und durch dieses Sync wird eben vorallem auch dieses Hz-Geruckel behoben, nicht nur Tearing.
Hatte ehrlich gesagt vergessen, wie schlimm das Stuttering durch V-Sync aussieht, hab gerade mal den Test ohne G-Sync gemacht. Muss ehrlich sagen, dass adaptive sync der größte Fortschritt für mich ist, seitdem ich vor 6 Jahren umgestiegen bin.
Zuletzt geändert von Termix am 05.09.2020 13:12, insgesamt 1-mal geändert.
thegucky
Beiträge: 387
Registriert: 21.05.2010 02:19
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von thegucky »

4k ist bei mir erst mit einem ca 32" OLED mit 144hz ein Thema. Aktuell ist es ein 165hz 1080p mit 27". G-Sync müsste der OLED auch haben, bzw kompatible wie meiner geht auch, wenn Nvidia es getestet hat. Ich mag auch keine Nieten mit Glow oder Backlight Problemen. G-Sync-Hardware läuft ab 1 hz und Free-Sync erst ab 40hz.

220W waren die TDP der 3070. Gerüchteweise soll AMD mit RDNA2 an einer 3070 locker rankommen, allerdings mit 275W.

Die RTX 3080 ist mein Tier. Raytracing für CP 2077, genug Leistung für 1080p 144hz mit Ray-T (ob mit oder ohne DLSS muss noch gucken). Ich will einfach nur jeden Regler nach oben stellen und flüssiges Gameplay haben. :D

Wer hier sagt der eine 3090 kaufen will, den Frage ich: Hast du dir auch eine Titan in der Vergangenheit gekauft? Mit Ausnahme der letzten beiden. Titan V und Titan RTX (und dual Titan Z) waren alle unter 1500€.
Die RTX 3090 ist die neue Titan. Nvidia hat es selbst gesagt und diese mit der Titan RTX verglichen.
Wenn nein, dann lass die Finger weg. XD
Das ist eine Arbeitskarte gedacht für Leute die ihr Geld mit der Arbeit am PC machen.
Für allenfalls 20-25% mehr Leistung als eine 3080, zahl ICH zumindest keine 800€ mehr. Womöglich kann man eine 3080 übertakten, eine 3090 (zumindest Founder) womöglich fast gar nicht, da sie nahe am Powerlimit (375W) ist.

@cM0
Seit der 200er Serie hatte die x80er/ x80 Ti immer etwa 250W TDP. Nur die 680 hatte einmalig 195W.
Es ist also die ERSTE Überschreitung der TDP von 250W für eine reguläre x80er Karte. (das war sonst Sonderkarten wie Dual GPUs oder Titans vorbehalten) Ob es jetzt Standard wird oder ob sich nächste Generation der Verbrauch wieder senkt, weiß ich nicht. Man sagt ja es liege an der Fertigung durch Samsung.
Benutzeravatar
cM0
Moderator
Beiträge: 8847
Registriert: 30.08.2009 22:58
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von cM0 »

thegucky hat geschrieben: 05.09.2020 21:18
@cM0
Seit der 200er Serie hatte die x80er/ x80 Ti immer etwa 250W TDP. Nur die 680 hatte einmalig 195W.
Es ist also die ERSTE Überschreitung der TDP von 250W für eine reguläre x80er Karte. (das war sonst Sonderkarten wie Dual GPUs oder Titans vorbehalten) Ob es jetzt Standard wird oder ob sich nächste Generation der Verbrauch wieder senkt, weiß ich nicht. Man sagt ja es liege an der Fertigung durch Samsung.
Ich kenne die Werte, aber zwischen TI und nicht TI gab es große Unterschiede, die allerdings bei den letzten Generationen kleiner wurden. Die RTX 2080 lag bei 215W TDP, die TI bei 250W. Meine 1080 hat eine TDP von 180W. Die 1080 TI hat etwa 250W. Bei der 980 waren 165W angesetzt, während die TI bei 250W lag usw.
Diesmal haben wir eine Non-TI die sich einfach mal 70W mehr gönnt als vorherige TIs. Im Vergleich zur 980 fast eine Verdopplung.
Ich vermute, dass Nvidia das macht, damit die 3080 leistungstechnisch noch knapp über Big Navi liegt, aber wir werden sehen, ob das stimmt. Zumal AMD auch noch an der TDP schrauben kann. Es bleibt auf jeden Fall spannend :) Falls die Theorie stimmt, könnte man bei der nächsten Generation auch wieder etwas sparsamer sein.
Benutzeravatar
Skynet1982
Beiträge: 294
Registriert: 24.08.2012 13:37
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Skynet1982 »

4P|Eike hat geschrieben: 05.09.2020 12:25
Liesel Weppen hat geschrieben: 05.09.2020 12:06
Leon-x hat geschrieben: 05.09.2020 11:09 Für 3080 wird man eher ein 650Watt Teil benötigen auch wenn Nvidia gar 750Watt empfiehlt. Darf gewisse Spannungsspitzen nie unterschätzen.
Klar, die 320W der 3080 sind auch nur die TDP. Zu Lastspitzen bei Vollauslastung wird die bestimmt an die 400W nehmen. Aber solche Netzteilempfehlungen sind auch immer nur grob geschätzt, es hängt ja auch davon ab, was sonst noch so im PC steckt.
Also wenn die 3080 an nem 650W Netzteil 400W zieht, sind immernoch 250W für den Rest übrig. Dürfte also für eine CPU mit 100-150W + Rest immernoch gut reichen. Dazu kommt, das gerade in Spielen die CPU ja praktisch nie bei Volllast ist. Will man benchmar-rockstable mit Prime 95 im Hintergrund, dann könnte es je nach sonstiger Ausstattung knapp werden.

Das in meinen aktuellen PC-Build mal eine fettere Grafikkarte reinkommen soll, war mir schon vorher klar. Da bin ich jetzt ganz froh, das ich doch gleich ein "völlig überdimensioniertes" 750W Netzteil genommen habe. :D
Das stimmt so nicht, nVidia hat die 320 als tgp also total graphics power bzw. Total Board power angegeben, also schon das was das gesamte Board zieht. Die tdp wird etwas darunter liegen.
Hmm,

TGP oder TBP ? Ist offenbar nicht das gleiche. Wenn TGP, dann kann die TBP durchaus höher liegen:

Bild

Diverse Netzteilhersteller empfehlen übrigens bis zu 25% Reserve bei Netzteilen, wenn man die länger nutzen will. Elektrolytkondensatoren altern wohl, munkelt man.
Benutzeravatar
4P|Eike
Beiträge: 537
Registriert: 02.04.2013 10:26
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von 4P|Eike »

Skynet1982 hat geschrieben: 05.09.2020 23:11
4P|Eike hat geschrieben: 05.09.2020 12:25
Das stimmt so nicht, nVidia hat die 320 als tgp also total graphics power bzw. Total Board power angegeben, also schon das was das gesamte Board zieht. Die tdp wird etwas darunter liegen.
TGP oder TBP ? Ist offenbar nicht das gleiche. Wenn TGP, dann kann die TBP durchaus höher liegen:
Stimmt. Tgp ist angegeben. Allerdings ist wohl anzunehmen, dass die tbp zumindest bei den founders nicht so extrem weit weg ist wie bei den quadros. Zumal das dann ja wirklich nur anliegt wenn die gpu auf 100% läuft, die Lüfter auf 100% laufen und die LEDs auf max helligkeit sind. Custom Designs sind natürlich ne andere Geschichte.

Ich persönlich hoffe derzeit einfach nur, dass ich mein (ziemlich hochwertiges) 550w psu mit der 3070 und meinem 3600 zusammen noch sinnvoll benutzen kann. Da alle Rechner-Tools sagen mit einer 2080 wäre es gegangen müsste es passen, aber mal schauen.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Liesel Weppen »

thegucky hat geschrieben: 05.09.2020 21:18 Wer hier sagt der eine 3090 kaufen will, den Frage ich: Hast du dir auch eine Titan in der Vergangenheit gekauft? Mit Ausnahme der letzten beiden. Titan V und Titan RTX (und dual Titan Z) waren alle unter 1500€.
Das ist relativ... wenn mir jemand vor 8 Jahren gesagt hätte, das ich mir mal eine Grafikkarte für 800€ kaufe, hätte ich dem damals auch nen Vogel gezeigt. Mittlerweile kann ichs mir aber halt einfach leisten und ich bin sicher nicht der einzige dem das so geht.
thegucky hat geschrieben: 05.09.2020 21:18 Die RTX 3090 ist die neue Titan. Nvidia hat es selbst gesagt und diese mit der Titan RTX verglichen.
Nein, sie haben mit der Titan verglichen, aber es soll wohl auch eine RTX 3000 Titan kommen. Zumindest was ich so gelesen habe.
thegucky hat geschrieben: 05.09.2020 21:18 Das ist eine Arbeitskarte gedacht für Leute die ihr Geld mit der Arbeit am PC machen.
Nein, die Titans sind ausgeschriebene Gamerkarten im Hochpreissegment. Wobei der Preis überproportional zur Mehrleistung ist. Also für Leute, wie man es auch sehen will, die "zuviel" Geld haben und einach nur das Beste haben wollen, warum auch immer.
Das ist der Ferrari unter den Grafikkarten. Supersportwagen gibts auch günstiger, aber damit fällt man halt nicht so auf.
Die "Arbeits"karten sind die Quadros und Teslas.
thegucky hat geschrieben: 05.09.2020 21:18 Es ist also die ERSTE Überschreitung der TDP von 250W für eine reguläre x80er Karte.
Der Stromverbrauch ist mir relativ egal, solange die Kühlung klappt. Und wie hier schon mehrfach erwähnt wurde, die 320W der 3080 sind nicht die TDP sondern die TGP. Die TDP liegt also niedriger.
Bleibt also die Frage, wie das vergleichbar ist. Die 2080ti hat zwar eine TDP von 250W, aber eben nur die TDP. Laut diversen Messungen zieht die aber unter Volllast bei Spitzen auch schon über 300W.
Zuletzt geändert von Liesel Weppen am 06.09.2020 01:44, insgesamt 1-mal geändert.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von johndoe711686 »

thegucky hat geschrieben: 05.09.2020 21:18 Wer hier sagt der eine 3090 kaufen will, den Frage ich: Hast du dir auch eine Titan in der Vergangenheit gekauft? Mit Ausnahme der letzten beiden. Titan V und Titan RTX (und dual Titan Z) waren alle unter 1500€.
Bis auf die letzten beiden, war die 70er Karte auch immer deutlich unter 400€. Das sagt ja nun nicht viel. Zumal es bisher gar nicht so viele Titan Karten gab. Ging ja erst mit Kepler los.
Liesel Weppen hat geschrieben: 06.09.2020 01:40 Nein, die Titans sind ausgeschriebene Gamerkarten im Hochpreissegment.
Also zumindest früher wurden die schon so beworben, dass es Gamerkarten sind, die aber gleichzeitig Profi Aufgaben übernehmen können, daher auch immer der hohe Speicher. War also eine Schnittstelle zwischen Geforce und Quadro.
Zuletzt geändert von johndoe711686 am 06.09.2020 09:25, insgesamt 1-mal geändert.
HeinzKarl61
Beiträge: 111
Registriert: 04.02.2019 06:42
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von HeinzKarl61 »

thegucky hat geschrieben: 05.09.2020 21:18
Wer hier sagt der eine 3090 kaufen will, den Frage ich: Hast du dir auch eine Titan in der Vergangenheit gekauft? Mit Ausnahme der letzten beiden. Titan V und Titan RTX (und dual Titan Z) waren alle unter 1500€.
Die RTX 3090 ist die neue Titan. Nvidia hat es selbst gesagt und diese mit der Titan RTX verglichen.
Wenn nein, dann lass die Finger weg. XD
Das ist eine Arbeitskarte gedacht für Leute die ihr Geld mit der Arbeit am PC machen.
Für allenfalls 20-25% mehr Leistung als eine 3080, zahl ICH zumindest keine 800€ mehr. Womöglich kann man eine 3080 übertakten, eine 3090 (zumindest Founder) womöglich fast gar nicht, da sie nahe am Powerlimit (375W) ist.
Ich gebe dir zwar recht das die 3090 die neue Titan sein soll, aber klar ist auch das die 3090 nicht der Vollausbau ist und somit definitiv noch ne bessere Karte nachgeschoben wird. Ob diese dann endlich Titan heißt oder 3090 TI kann ich nicht sagen, aber die 3090 ist definitiv NICHT die Titan.
Ich zitiere mal von igorslab: „ Der GA102 verfügt im ungekürzten Maximalausbau über 7 GPCs mit je 12 SMs was 10.752 CUDA-Cores entspräche. Bei der GeForce RTX 3090 sind jedoch zwei SM deaktiviert, was 10.496 ALUs ergibt.“
Man sieht da ist auf jeden Fall noch Platz für nen Upgrade was man sich dann richtig teuer bezahlen lassen kann.
bloub
Beiträge: 1542
Registriert: 22.05.2010 15:06
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von bloub »

bei gleichen takt würde dann der vollausbau einen leistungszuwachs von etwa 1% erreichen, das fällt schon fast in den bereich der messungenauigkeit.
Benutzeravatar
cM0
Moderator
Beiträge: 8847
Registriert: 30.08.2009 22:58
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von cM0 »

Nochmal Thema TDP, TGP und TBP: Heise spricht von TGP, Golem von Board Power, was wohl eher TBP wäre. Nvidia selbst schreibt in den technischen Daten von "Leistungsaufnahme der Grafikkarte (W) 320". PCGHW schreibt über TGP und in einer anderen News zu Custommodellen auf deren Seite steht "Übrigens: die tatsächliche TDP liegt für gewöhnlich grob geschätzt 20 Prozent unter dem TGP-Wert."
Computerbase hingegen spricht von TDP und begründet dies mit dem Satz "Die TDP, die bei Nvidia gewöhnlich die gesamte Grafikkarte umfasst, beträgt 350 Watt." (auf die 3090 bezogen).
Ich könnte noch mehr Seiten, auch die englischsprachigen mit aufzählen und würde auf noch mehr unterschiedliche Meinungen kommen. Die meisten sprechen allerdings von TGP und ich würde Nvidias Angabe auch als TGP deuten.

Fazit: Alles sehr undurchsichtig zurzeit. Was den reellen Verbrauch angeht, muss man sowieso Tests abwarten. Ausschlaggebend ist für mich eh wie gut das neue Kühlkonzept hier kühlen kann.
Benutzeravatar
VaniKa
Beiträge: 703
Registriert: 12.11.2010 11:47
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von VaniKa »

Termix hat geschrieben: 05.09.2020 12:33
Ryan2k6 hat geschrieben: 05.09.2020 11:58Bei nem 60Hz Monitor hast du halt das Problem des Tearings, dadurch musst du VSync aktivieren und nur dadurch hüpfen die FPS dann gerne mal auf 30 zurück, wenn du nur auf 45 oder so kommst. Ohne VSync ist das kein Problem, da gehen 30, 40, 50. Aber bei 60+ kommt dafür dann wieder Tearing, was ich persönlich schrecklich finde und nicht sehen kann.
Ne du das stimmt nicht mehr, das war früher mal so, mittlerweile gibt es eigentlich in jedem Game V-Sync mit Triple Buffering, erhöht zwar inputlag aber du hast nicht 30 ODER 60 fps.
Ich kann weder Tearing noch Mikroruckler (durch Frame-Verdopplungen) ausstehen. Daher ist für mich einerseits V-Sync und andererseits exakt 60 FPS Pflicht, da mein TV kein G-Sync oder FreeSync unterstützt. Um den Input-Lag zu minimieren, aktiviere ich in den Treibern diese Ultra-Low-Latency-Option und, ganz wichtig, nutze obendrauf RTSS als Framerate-Limiter. Dadurch erreiche ich selbst bei anspruchsvollen Spielen perfekte Frametimes. Dabei sind die Spiele auch so konfiguriert, dass sie das mit bestmöglicher Grafikqualität schaffen, was meist im Bereich very high bis ultra liegt. Ich optimiere die Grafikeinstellungen immer so, dass ich vor allem das runterschraube, das viel Leistung benötigt, aber nicht viel zur Grafik beiträgt. So kann man zwischen ultra und "kaum zu unterscheiden von ultra" oft enorm Leistung gewinnen. Dafür reicht in 1080p dann eine RTX 2060. Alles, was da grob die Specs verletzt, z.B. Texturauflösung mit einem Bedarf von 8 GB bei vorhanden 6 GB, regle ich natürlich auch entsprechend runter. Kann nicht behaupten, dass die Texturen da jemals grob gewirkt haben. Bei einer 3060 könnten es dann aber doch gerne mal 8 GB sein.

PS: Angenehmer Nebeneffekt von einer maximalen Framerate ist übrigens geringere Lautstärke, geringerer Stromverbrauch und geringere Hitzeentwicklung. Ohne Limiter arbeitet immer eine Komponente, entweder CPU oder GPU, am Anschlag. Also selbst bei G-Sync/FreeSync würde ich eine Obergrenze festlegen.

PPS: Ich frage mich an der Stelle auch, ob man sich nicht auch besser an eine bestimmte Framerate gewöhnen sollte, anstatt jedes Spiel mit variablen FPS zu spielen. Denn das bedeutet ja auch variablen Input-Lag. Mag sein, dass das ab bestimmten Frameraten irrelevant wird, weil der Input-Lag allgemein zu gering wird. Aber so ständig zwischen 40 und 80 FPS zu wechseln stelle ich mir weniger sinnvoll vor als mit konstanten 60 FPS zu spielen.
Zuletzt geändert von VaniKa am 07.09.2020 10:11, insgesamt 2-mal geändert.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Liesel Weppen »

VaniKa hat geschrieben: 07.09.2020 09:57 PPS: Ich frage mich an der Stelle auch, ob man sich nicht auch besser an eine bestimmte Framerate gewöhnen sollte, anstatt jedes Spiel mit variablen FPS zu spielen. Denn das bedeutet ja auch variablen Input-Lag. Mag sein, dass das ab bestimmten Frameraten irrelevant wird, weil der Input-Lag allgemein zu gering wird. Aber so ständig zwischen 40 und 80 FPS zu wechseln stelle ich mir weniger sinnvoll vor als mit konstanten 60 FPS zu spielen.
Jap, ist besser wenn die Framerate möglichst konstant ist. Mit xSync wirst du zwar eher weniger "unrund" bemerken, wenn die Framerate zwischen 63 und 65 schwankt, aber große Schwankungen von z.B. 40 zu 80 fallen dennoch auf, mir zumindest.
Daher sind die ganzen Sync-Dinger auch nicht als optimal zu sehen. Sie verhindern nur die Mikroruckler bei fehlendem Sync und schwankenden Frameraten, aber eigentlich will man gar keine schwankenden Frameraten. Deswegen streben viele auch an, das die dann meist auch vorhanden 144Hz auch tatsächlich mit 144fps befeuert werden, was je nach Spiel natürlich auch wieder schwierig werden kann. Und wenn man dann 144fps wirklich stabil hinkriegt, bräuchte man wiederrum eigentlich kein G-Sync mehr.

Deswegen wird sich wie ich weiter oben schon geschrieben habe, selbst mit xSync bei mir nicht viel ändern, ich werde weiterhin Framelimiter verwenden, nur das ich diese dank xSync dann nicht fix auf 60fps stellen muss, sondern je nach Spiel auch mit Einstellungen spielen kann, die vielleicht nur 50fps liefern, im nächsten Spiel aber trotzdem mit 120fps spielen kann.

Um (heftige) Framedrops zu vermeiden, muss man sowieso irgendwo limitieren, ob man das jetzt durch einen Framelimiter manuell tut, oder der Monitor mit seinen 60 oder 144Hz die Grenze setzt, spielt keine Rolle. In einem Spiel kann die aktuelle (relativ einfache) Szene relativ zur eigenen Hardware gerne mit 144fps laufen. Und dann explodiert auf einmal was, Trümmer fliegen, viel Transparenzeffekte und die GPU bricht auf 80fps ein und sobald die Explosion vorbei ist springt sie wieder auf 144fps.
Deswegen stellt man im Idealfall die Spiele so ein, zumindest wenn man Wert auf stabile FPS und Frametimes legt, das das Spiel in der normalen Szene auf 70 oder 80fps begrenzt wird, freut sich das dann auch die Grafikkarte nur mit 60% Leistung arbeitet und deswegen der Lüfter leiser ist und wenn dann was explodiert, geht die GPU-Auslastung zwar kurz auf 90-95% hoch (erreicht im Idealfall aber trotzdem nicht ganz 100%), aber die FPS bleiben rockstable bei 80. Und der Lüfter dreht wegen dieser kurzzeitig höheren Belastung im Idealfall noch nichtmal hoch.

Also andersrum gesagt, wieviel FPS ich in einem Spiel maximal schaffe, ist komplett uninteressant. Interessant ist der Teil im Spiel, bei dem man am wenigsten FPS erreicht. Also selbst in simplen Spielen wie CS:GO. Es hilft überhaupt nichts, wenn das Spiel zu 90% mit 300fps läuft, sobald der Nebel einer Nebelgranate alles auf 100fps drückt, solange er sichtbar ist.

Ist ähnlich wie bei nem Auto mit 300PS. Zu 99% braucht man die 300PS gar nicht. Nur wenn man mal heftig aufs Gas drückt, will man die. Nur deswegen kauft man sich ein Auto mit 300PS. Nicht weil man die ja dauernd bräucht, oder überhaupt nutzen könnte. Die Grafikkarte ist genauso. Deren volle Leistung braucht man nur für Lastspitzen. Im Regelbetrieb sollte die eher bei maximal 80% laufen.
Zuletzt geändert von Liesel Weppen am 07.09.2020 11:16, insgesamt 2-mal geändert.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von johndoe711686 »

Min FPS war schon immer der eigentlich wichtigere Wert. Avg nicht und Max schon gar nicht.