Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

herrdersuppen
Beiträge: 127
Registriert: 04.06.2015 20:13
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von herrdersuppen »

Also 2080Ti 's werden auf Kleinanzeigen schon für unter 600 gehandelt. Ebay nähert sich dem auch gerade.
Wird spannend werden, wie sich dass in den nächsten Monaten und nach der AMD Präsi im November entwickelt.
Dass Turing mit der miesen RTX Performance nur ein Zwischenschritt war, war aber von vornherein klar. Wer nicht unbedingt musste und da trotzdem zugeschlagen hat, selbst Schuld.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von johndoe711686 »

Ich plane mit einem 27" 4K Bildschirm, mir sind 32" auch zu groß, aber ich mag auch kein Ultrawide. Erstens muss man dann ständig den Kopf drehen, zweitens sind diese gebogenen Monitore potthässlich und dritten unterstützen Spiele das nicht immer.

Ja, normalerweise überspringe ich auch immer mindestens eine Gen. Aber hier wäre es ja eher der Wechsel innerhalb einer Gen für mehr "Zukunftsicherheit". Denn von der Leistung, reicht ne 3080 locker bis zur 50er Gen, ob der VRAM vorher zu klein wird, muss man sehen, aber wenn ich das Gefühl habe, dann tausche ich eben noch mal zur 3080 mit 20GB, sollte eine kommen. Mit Verkauf der alten wird das auch dann nicht zu teuer werden und spätestens mit der kommt man dann mindestens bis zur 50er Karte.
herrdersuppen hat geschrieben: 02.09.2020 14:54 Also 2080Ti 's werden auf Kleinanzeigen schon für unter 600 gehandelt. Ebay nähert sich dem auch gerade.
Wer so teure Hardware gebraucht bei ebay kauft muss schon sehr mutig sein, das wäre mir bei den Preisen viel zu unsicher. Du weißt nie was du da für eine Karte bekommst, wie hoch die übertaktet wurde, was da sonst mit getrieben wurde und hast dann keine Rückgabe. Niemals würd ich sowas machen. Gerade bei Kleinanzeigen sind die vermeintlichen Schnäppchen dann Abzocke oder ganz andere Karten wo nur 2080 TI drauf steht.
Zuletzt geändert von johndoe711686 am 02.09.2020 15:01, insgesamt 1-mal geändert.
Benutzeravatar
TheoFleury
Beiträge: 1087
Registriert: 06.11.2012 16:29
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von TheoFleury »

Ne 1080 Ti werkelt in meinem PC seit längerem und ich habe keine Probleme damit auf einem 4K TV in Verbindung mit sattem Ram und einem Intel 8700 K.

Nvidia macht es mir erst schmackhaft wenn richtiger Fotorealismus eine Rolle spielen wird und Entwickler Physik und KI pushen der den PS3 Grenzwert endlich überschreitet. Ray Tracing und andere Spielereien sind es mir nicht Wert nach einer teuren 1080Ti , nochmal an soviel Geld-Ressourcen auszugeben...Vorher lieber eine PS5 kaufen samt Exklusivgames....
BitteeinByte
Beiträge: 369
Registriert: 15.12.2010 14:21
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von BitteeinByte »

Bin echt gespannt was man letzlich für die 500€ bekommt. Mein Hype ist schonmal eingepreist. :)
Und für mein 2560x1080 @ 75hz Gaming sollte die 3070 dicke reichen, selbst mit 8GB VRam.
Gespannt bin ich auch auf Tests zu dem neu vorgestellten RTX I/O System, ob das so effizinet wird? Würde prima zu meinem kürzlich aufgebauten Ryzen System mit PCI 4.0 SSD passen.
(RTX I/O macht es laut Computerbase den Grafikkarten möglich, Daten ohne Umwege über die CPU aus PCIe-4.0-SSDs zu lesen)
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Liesel Weppen »

Ryan2k6 hat geschrieben: 02.09.2020 14:58 Ich plane mit einem 27" 4K Bildschirm, mir sind 32" auch zu groß, aber ich mag auch kein Ultrawide. Erstens muss man dann ständig den Kopf drehen, zweitens sind diese gebogenen Monitore potthässlich und dritten unterstützen Spiele das nicht immer.
Kopf drehen bin ich schon gewohnt. Dual-Monitor gehört für mich seit über 10 Jahren zur Standardausrüstung. An einem PC mit nur einem Monitor fühle ich mich mittlerweile irgendwie wie behindert (und selbst wenn es ein 21:9 wird, wird da trotzdem noch ein zweiter (16:9) Monitor daneben stehen).
Die Optik von gebogenen Monitoren finde ich nicht hässlich. Aber die Krümmung wird sinnvoller, je breiter die Monitore werden, denn die Krümmung kompensiert den Fischaugeneffekt, der bei zu großen FOVs nunmal entsteht. Ultrabreit-Monitore sind für mich fast schon wie ein Schritt Richtung VR-Headset, bzw Headtracking, nur das man gar nicht Tracken muss, weil das Bild sowieso breit genug ist.
Und ich verzichte nicht darauf, nur weil ältere Spiele das nicht unterstützen. Die Spiele laufen aber trotzdem, und dann hab ich eben schwarze Balken an den Seiten, aber die beißen nicht, oder ich spiele dann einfach auf meinem 16:9-Zweit-Monitor. Aber auf einem 16:9 Monitore werde ich nie breitere Spiele genießen können. Ist auch nicht anders als der Schritt von 4:3 zu 16:9 und ich spiele heute immernoch Spiele, die immernoch nur 4:3 können. Funktioniert auch auf 16:9 Monitoren. ;)
Mir ist die Pixeldichte mit WQHD auf 27" hoch genug, mit UHD überschreitet sie schon für mich sinnvolle Werte, daher ja auch die Aussage, UHD lohnt sich für mich erst ab 32".
eigentlichegal
Beiträge: 1338
Registriert: 12.08.2013 16:09
Persönliche Nachricht:

Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von eigentlichegal »

Ich bin ganz sicher kein Fachmann, also vielleicht kann mir ein ebensolcher die folgenden Fragen beantworten:

1. Warum ist VRam auf einmal so wichtig, dass sich alle hier deswegen so aufregen? Nur weil ein brutal schlecht geportetes HZD den VRam vollaufen lässt? Seit wann sind solche Entwicklerfiaskoa die Benchmark für Hardware?

2. Sollte nicht auch die Geschwindigkeit des VRam eine zentrale Rolle spielen? Der ist doch in der 3080 deutlich schneller als in der 2080 Ti, oder nicht? Wieso ist das egal?

3. Glaubt hier wirklich jemand ernsthaft, dass die 2080 Ti die bessere GPU als die 3080 ist, nur weil sie ein GB mehr VRam hat? Wenn ja, wieso?
Benutzeravatar
TheoFleury
Beiträge: 1087
Registriert: 06.11.2012 16:29
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von TheoFleury »

Liesel Weppen hat geschrieben: 02.09.2020 16:12
Ryan2k6 hat geschrieben: 02.09.2020 14:58 Ich plane mit einem 27" 4K Bildschirm, mir sind 32" auch zu groß, aber ich mag auch kein Ultrawide. Erstens muss man dann ständig den Kopf drehen, zweitens sind diese gebogenen Monitore potthässlich und dritten unterstützen Spiele das nicht immer.
Kopf drehen bin ich schon gewohnt. Dual-Monitor gehört für mich seit über 10 Jahren zur Standardausrüstung. An einem PC mit nur einem Monitor fühle ich mich mittlerweile irgendwie wie behindert (und selbst wenn es ein 21:9 wird, wird da trotzdem noch ein zweiter (16:9) Monitor daneben stehen).
Die Optik von gebogenen Monitoren finde ich nicht hässlich. Aber die Krümmung wird sinnvoller, je breiter die Monitore werden, denn die Krümmung kompensiert den Fischaugeneffekt, der bei zu großen FOVs nunmal entsteht. Ultrabreit-Monitore sind für mich fast schon wie ein Schritt Richtung VR-Headset, bzw Headtracking, nur das man gar nicht Tracken muss, weil das Bild sowieso breit genug ist.
Und ich verzichte nicht darauf, nur weil ältere Spiele das nicht unterstützen. Die Spiele laufen aber trotzdem, und dann hab ich eben schwarze Balken an den Seiten, aber die beißen nicht, oder ich spiele dann einfach auf meinem 16:9-Zweit-Monitor. Aber auf einem 16:9 Monitore werde ich nie breitere Spiele genießen können. Ist auch nicht anders als der Schritt von 4:3 zu 16:9 und ich spiele heute immernoch Spiele, die immernoch nur 4:3 können. Funktioniert auch auf 16:9 Monitoren. ;)
Mir ist die Pixeldichte mit WQHD auf 27" hoch genug, mit UHD überschreitet sie schon für mich sinnvolle Werte, daher ja auch die Aussage, UHD lohnt sich für mich erst ab 32".
Wow...hatte kurzzeitig auch 2 Monitore (4K @ 60 HZ, 2K @ 144HZ) ...fand es eher nervend, vor allem da Windows 10 dafür zu wenig benutzerdefinierte Präferenzen und individuelle Optionen im Desktop-Bereich bereitstellt :Hüpf:

Gibt es eventuell ein Drittanbieter Tool mit dem man das managen kann? Naja ich vermisse den zweiten monitor eigentlich gar nicht mehr. Natürlich kommt es auch auf das Benutzerverhalten an...
BitteeinByte
Beiträge: 369
Registriert: 15.12.2010 14:21
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von BitteeinByte »

Den Kopf drehen bei 21:9?

Bild
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Liesel Weppen »

eigentlichegal hat geschrieben: 02.09.2020 16:12 1. Warum ist VRam auf einmal so wichtig, dass sich alle hier deswegen so aufregen? Nur weil ein brutal schlecht geportetes HZD den VRam vollaufen lässt? Seit wann sind solche Entwicklerfiaskoa die Benchmark für Hardware?
VRAM braucht man hauptsächlich für Texturen und wenn man die Renderauflösung auf 4K steigert, will man auch höher auflösende Texturen, und die brauchen mehr VRAM.
Wenn man also jetzt mit FHD-Texturen schon 6-8GB RAM voll kriegt, wo sollen dann entsprechend hochaufgelöste Texturen für UHD hin?
eigentlichegal hat geschrieben: 02.09.2020 16:12 2. Sollte nicht auch die Geschwindigkeit des VRam eine zentrale Rolle spielen? Der ist doch in der 3080 deutlich schneller als in der 2080 Ti, oder nicht? Wieso ist das egal?
Egal ist es nicht. Höhere Bandbreite braucht man aber eher, wenn auch die Texturen größer werden und damit die größer werden können, bräuchte man halt auch mehr VRAM.
eigentlichegal hat geschrieben: 02.09.2020 16:12 3. Glaubt hier wirklich jemand ernsthaft, dass die 2080 Ti die bessere GPU als die 3080 ist, nur weil sie ein GB mehr VRam hat? Wenn ja, wieso?
Die GPU wird nicht besser oder schlechter nur weil sie mehr oder weniger RAM hat, ihre Rechenleistung bleibt gleich. Aber theoretisch, wenn ein Spiel jetzt tatsächlich für Texturen die vollen 11GB bräuchte, aber auf einer 3080 "nur" 10GB hat und deswegen dauernd 1GB mit System-RAM swappen müsste, kann das der Flaschenhals sein, der selbst eine 3080 so in die Knie zwingt, das sie unterm Strich sogar langsamer als eine 2080ti wird.
Das wird so allerdings kaum passieren, weil die Spiele schlau genug sind und die benutzten Texturen dem verfügbaren VRAM anzupassen (Gibt da auch diverse Videos, die die Unterschiede zwischen Karten mit 6GB und 8GB zeigen). Wenn der nicht reicht, werden eben Mipmap-Stufen von Texturen weggelassen, oder gar ersetzt, so das zwei Polygone die gleiche Textur zeigen, wo sie bei mehr VRAM zwei verschiedene Texturen hätten. Es bleibt dann aber immernoch ein Unterschied in der Qualität. In dem Fall würdest du mit einer 2080ti die hübscheren Texturen sehen (wenn auch weniger FPS), obwohl die 3080 deutlich mehr Rechenleistung hätte. Ob das wiederrum in einem Bereich liegt, der dir überhaupt auffällt (ohne jetzt direkte Screenshotvergleiche zu machen), ist nochmal eine ganz andere Frage.
Benutzeravatar
AdrianVeidt
Beiträge: 389
Registriert: 19.07.2019 13:21
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von AdrianVeidt »

Ryan2k6 hat geschrieben: 01.09.2020 13:19
Wolfen hat geschrieben: 01.09.2020 12:59 Jetzt nur noch zu einem angenehmen Preis .........
:lol:

Das kannste aber mal vergessen. Warum auch, haben derzeit keinen Grund. Kommt natürlich auch drauf an, was für dich angenehm ist. ;)
Der Preis ist doch ok, 499€ für den 3070 ist ja exakt der gleiche Preis den man schon bei der 1070 veranschlagt hatte.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von Liesel Weppen »

TheoFleury hat geschrieben: 02.09.2020 16:17 Gibt es eventuell ein Drittanbieter Tool mit dem man das managen kann? Naja ich vermisse den zweiten monitor eigentlich gar nicht mehr. Natürlich kommt es auch auf das Benutzerverhalten an...
Ich nutze seit Windows XP (also seit über 10 Jahren) UltraMon. Das rüstet einiges nach, was den Multimonitorbetrieb wesentlich verbessert, allerdings meine ich, das das meiste was früher erst mit UltraMon ermöglicht wurde Windows 10 mittlerweile auch schon direkt hinkriegt (z.B. die Icons in der Taskleiste nur auf der Taskleiste des Monitors anzuzeigen auf dem das Fenster auch wirklich ist).
Kommt auch drauf an, was genau du für Möglichkeiten vermisst?

Ich bevorzuge DualMonitor sogar einem größeren Monitor, weil man durch die beiden Monitore schon mehr Möglichkeiten hat als auf einem einzelnen. Z.B. Zwei Fenster auf jeweils einem Monitor vollbild nebeneinander. Oder z.B. auf dem einen Monitor ein Fullscreen-Spiel und auf dem zweiten immernoch nen Browser offen, oder nen Videostream laufen, etc.
Mit nur einem Monitor wirds halt schwierig, wenn eine Anwendung/Spiel nur in Fullscreen geht (nicht etwa Windowed Mode oder sowas), dann hast du nämlich schwarze Balken, die du aber nicht nutzen kannst, auch wenn sie genug Bildfläche hätten um da noch was anderes anzuzeigen.

Gerade für Breitbildmonitore (21:9, 24:10 bis hoch zu 32:9, ggf. auch auf größeren 16:9 UHD Monitoren schon hilfreich) gibts auch Software die flexible Fensteranordnungen ermöglicht, z.B den Monitor in 3 Spalten zu teilen, statt nur linke Hälfte, rechte Hälfte. Das klappt aber halt afaik nicht mit Fullscreen-Anwendungen.
johndoe711686
Beiträge: 15758
Registriert: 23.12.2007 19:02
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von johndoe711686 »

AdrianVeidt hat geschrieben: 02.09.2020 16:45
Ryan2k6 hat geschrieben: 01.09.2020 13:19
Wolfen hat geschrieben: 01.09.2020 12:59 Jetzt nur noch zu einem angenehmen Preis .........
:lol:

Das kannste aber mal vergessen. Warum auch, haben derzeit keinen Grund. Kommt natürlich auch drauf an, was für dich angenehm ist. ;)
Der Preis ist doch ok, 499€ für den 3070 ist ja exakt der gleiche Preis den man schon bei der 1070 veranschlagt hatte.
Ja, da haben sie mich überrascht, zugegeben.
Benutzeravatar
sourcOr
Beiträge: 13369
Registriert: 17.09.2005 16:44
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von sourcOr »

AdrianVeidt hat geschrieben: 02.09.2020 16:45
Ryan2k6 hat geschrieben: 01.09.2020 13:19
Wolfen hat geschrieben: 01.09.2020 12:59 Jetzt nur noch zu einem angenehmen Preis .........
:lol:

Das kannste aber mal vergessen. Warum auch, haben derzeit keinen Grund. Kommt natürlich auch drauf an, was für dich angenehm ist. ;)
Der Preis ist doch ok, 499€ für den 3070 ist ja exakt der gleiche Preis den man schon bei der 1070 veranschlagt hatte.
Die 1070 find bei 400 an iirc
eigentlichegal
Beiträge: 1338
Registriert: 12.08.2013 16:09
Persönliche Nachricht:

Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von eigentlichegal »

Liesel Weppen hat geschrieben: 02.09.2020 17:13eigentlichegal
1. Warum ist VRam auf einmal so wichtig, dass sich alle hier deswegen so aufregen? Nur weil ein brutal schlecht geportetes HZD den VRam vollaufen lässt? Seit wann sind solche Entwicklerfiaskoa die Benchmark für Hardware?

VRAM braucht man hauptsächlich für Texturen und wenn man die Renderauflösung auf 4K steigert, will man auch höher auflösende Texturen, und die brauchen mehr VRAM.
Wenn man also jetzt mit FHD-Texturen schon 6-8GB RAM voll kriegt, wo sollen dann entsprechend hochaufgelöste Texturen für UHD hin?

eigentlichegal
2. Sollte nicht auch die Geschwindigkeit des VRam eine zentrale Rolle spielen? Der ist doch in der 3080 deutlich schneller als in der 2080 Ti, oder nicht? Wieso ist das egal?

Egal ist es nicht. Höhere Bandbreite braucht man aber eher, wenn auch die Texturen größer werden und damit die größer werden können, bräuchte man halt auch mehr VRAM.

eigentlichegal
3. Glaubt hier wirklich jemand ernsthaft, dass die 2080 Ti die bessere GPU als die 3080 ist, nur weil sie ein GB mehr VRam hat? Wenn ja, wieso?

Die GPU wird nicht besser oder schlechter nur weil sie mehr oder weniger RAM hat, ihre Rechenleistung bleibt gleich. Aber theoretisch, wenn ein Spiel jetzt tatsächlich für Texturen die vollen 11GB bräuchte, aber auf einer 3080 "nur" 10GB hat und deswegen dauernd 1GB mit System-RAM swappen müsste, kann das der Flaschenhals sein, der selbst eine 3080 so in die Knie zwingt, das sie unterm Strich sogar langsamer als eine 2080ti wird.
Das wird so allerdings kaum passieren, weil die Spiele schlau genug sind und die benutzten Texturen dem verfügbaren VRAM anzupassen (Gibt da auch diverse Videos, die die Unterschiede zwischen Karten mit 6GB und 8GB zeigen). Wenn der nicht reicht, werden eben Mipmap-Stufen von Texturen weggelassen, oder gar ersetzt, so das zwei Polygone die gleiche Textur zeigen, wo sie bei mehr VRAM zwei verschiedene Texturen hätten. Es bleibt dann aber immernoch ein Unterschied in der Qualität. In dem Fall würdest du mit einer 2080ti die hübscheren Texturen sehen (wenn auch weniger FPS), obwohl die 3080 deutlich mehr Rechenleistung hätte. Ob das wiederrum in einem Bereich liegt, der dir überhaupt auffällt (ohne jetzt direkte Screenshotvergleiche zu machen), ist nochmal eine ganz andere Frage.
Dazu hätte ich gleich wieder mehrere Fragen.

1. Sollte man die 3080 wirklich losgelöst von DLSS betrachten? Ich hatte es so verstanden,dass der Sinn dahinter ist, eben nicht nativ in so hohen Auflösungen rechnen zu müssen, sondern niedrigere Auflösung durch DLSS hochzuskalieren. Vor diesem Hintergrund wäre der VRam dann doch aber völlig ausreichend, oder nicht?

2. Ich verstehe das Argument bzgl der VRam Größe nicht. Ich Stelle mir das so vor, dass die Datenbearbeitung zwei Stellschrauben kennt: Größe und Geschwindigkeit. Entweder bearbeite ich Daten langsam aber viele auf einmal oder schnell und dafür weniger. Im Fall von der 3090 halt beides gleichzeitig. Wieso genügt es nicht, die Daten schnell genug zu verarbeiten? Wenn es schnell genug ginge, müsste der VRam gar nicht vollaufen?

3. Ist wirklich davon auszugehen, dass das Target die 3090 wird, sodass Entwickler so programmieren, dass die 3080 ein VRam Problem bekommt? Ich meine, das ist nach eigener Aussage von Nvidia deren Flaggschiff. Welche Entwickler würden denn ein Spiel so optimieren, dass die zweitstärkste Karte am Markt eine miserable Performance hat?
johndoe824834
Beiträge: 3685
Registriert: 05.03.2009 23:07
Persönliche Nachricht:

Re: Nächste Grafikkarten-Generation von Nvidia? GeForce-Special-Event beginnt heute um 18 Uhr

Beitrag von johndoe824834 »

PS5 und X schon wieder veraltet bevor die überhaupt im Handel sind.

Die RTX 3800 ist 3mal so schnell wie eine PS5 - die billigste Karte dieser Neuen Reihe ist
auch noch besser als bei den Konsolen. Das ist noch nicht mal die beste , also die RTX 3900 ist wohl nochmal 20% scchneller.

Es gab mal Zeiten ( Dreamcast / X360) wo die Konsole dem PC voraus war.

Denke auch hier ist noch Luft nach oben mit 40 Teraflops bis 2022 also das ist hier noch nicht mal das maximum.
Zuletzt geändert von johndoe824834 am 02.09.2020 18:25, insgesamt 4-mal geändert.