Hardware - Special

Alles über unsere Previews, Reviews und Specials!

Moderatoren: Moderatoren, Redakteure

OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von OchsvormBerg »

MAudioBenny hat geschrieben: 23.09.2022 12:14 Ich würde eine RX 6700 non XT nehmen.

Die kostet aktuell 430 Euro… ganz klarer Preisleistungssieger.

Die schlägt auch die 3060 TI.

Ray Tracing spielt doch erst ab der 3070 langsam eine Rolle.
Also ich hab ne 2060 Super und Raytracing spielt bei mir eine Rolle. DLSS machts möglich.
Benutzeravatar
James Dean
Beiträge: 3602
Registriert: 04.04.2013 10:05
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von James Dean »

Würde tatsächlich eher zur AMD greifen, bin aber auch jemand, der in erster Linie auf den Stromverbrauch und dann auf die Leistung schaut. Und in Sachen Stromverbrauch und Preis ist AMD halt leider vorne liegend.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Temeter  »

Wieso leider? Nvidia ist momentan so ein Saftladen, weil AMD praktisch keinen Marktanteil mehr hat. Mehr Konkurrenz ist immer gut.
OchsvormBerg hat geschrieben: 23.09.2022 14:26Also ich hab ne 2060 Super und Raytracing spielt bei mir eine Rolle. DLSS machts möglich.
Den Vorteil, den du durch RT kriegst ist sicherlich aber sehr viel geringer, als was du durch DLSS verlierst. Insbesondere falls du 1080p nutzt. Da ist DLSS ein starkes Downgrade.

Unter einer 3070/80 ist RT imo ziemlich nutzlos.

Und wenn Nvidia bewirbt, dass eine 4090 mit RT und ohne DLSS nur 23fps in Cyberpunk schafft, scheint sich das kaum zu bessern :lol:
Zuletzt geändert von Temeter  am 23.09.2022 15:17, insgesamt 1-mal geändert.
Benutzeravatar
fflicki
Beiträge: 204
Registriert: 21.03.2011 20:22
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von fflicki »

Ich hab zur Zeit eine 3080 mit 12GB, damit zocke ich alles in 4K und meist 60FPS, bei Cyberpunk schafft die Karte die 60FPS nicht immer, und schalte ich Raytracing dazu geht die Karte in die Knie. FPS im 10er Bereich.
Mit DLSS dagegen sieht das natürlich ganz anders aus, 4K stabile 60FPS und so schöne Raytracing Effekte, das ist echt Erotik pur, kann mich an dem Spiel gar nicht satt sehen.
Leider sieht das Ergebniss von der Karte selber berechnet (ohne DLSS) lange nicht so gut aus.

Zuvor hatte ich die 2080 Super drin, und so viel schlechter sah dort Cyberpunk mit DLSS auch nicht aus.
Daher denke ich das mich der Leistungssprung einer echten 4080 (also die mit den 16GB) auch nicht so viel glücklicher machen würde, zumindest ist mir das keine 1500 Euro wert.
Die 40er Generation werde ich also warscheinlich Überspringen und hoffe Nvidia reist sich endlich wieder am Riemen und bringt mit der 50er besser bezahlbare Karten auf den Markt.
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von OchsvormBerg »

Temeter  hat geschrieben: 23.09.2022 15:16 Wieso leider? Nvidia ist momentan so ein Saftladen, weil AMD praktisch keinen Marktanteil mehr hat. Mehr Konkurrenz ist immer gut.
OchsvormBerg hat geschrieben: 23.09.2022 14:26Also ich hab ne 2060 Super und Raytracing spielt bei mir eine Rolle. DLSS machts möglich.
Den Vorteil, den du durch RT kriegst ist sicherlich aber sehr viel geringer, als was du durch DLSS verlierst. Insbesondere falls du 1080p nutzt. Da ist DLSS ein starkes Downgrade.

Unter einer 3070/80 ist RT imo ziemlich nutzlos.

Und wenn Nvidia bewirbt, dass eine 4090 mit RT und ohne DLSS nur 23fps in Cyberpunk schafft, scheint sich das kaum zu bessern :lol:
Ich nutze WQHD. DLSS "Quality" bringt im Schnitt 30% bessere Performance bei besserer Bildqualität und mit "geschenkter" Kantenglättung. In manchen Spielen nutze ich auch niedrigere DLSS-Stufen als Quality. Cyberpunk habe ich mit der Karte auf Raytracing Ultra mit DLSS "Performance" durchgespielt. Es ist unglaublich wie gut das Spiel selbst so noch aussieht, mit einer 2060 Super wohl gemerkt. Ja, man verliert bis zu einem gewissen Grad Bildschärfe, aber der Trade-off ist es wert. In vielen Situationen sieht es tatsächlich aus wie nativ mit dickem Anti-Aliasing.

Man braucht keine 3070+ für Raytracing, man muss nur Regler bedienen können.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Temeter  »

OchsvormBerg hat geschrieben: 23.09.2022 16:28Ich nutze WQHD. DLSS "Quality" bringt im Schnitt 30% bessere Performance bei besserer Bildqualität und mit "geschenkter" Kantenglättung. In manchen Spielen nutze ich auch niedrigere DLSS-Stufen als Quality. Cyberpunk habe ich mit der Karte auf Raytracing Ultra mit DLSS "Performance" durchgespielt. Es ist unglaublich wie gut das Spiel selbst so noch aussieht, mit einer 2060 Super wohl gemerkt. Ja, man verliert bis zu einem gewissen Grad Bildschärfe, aber der Trade-off ist es wert. In vielen Situationen sieht es tatsächlich aus wie nativ mit dickem Anti-Aliasing.

Man braucht keine 3070+ für Raytracing, man muss nur Regler bedienen können.
Bessere Performance bei besserer Bildqualität war schon immer Unsinn. Vielleicht bei einem Standbild, aber sobald du die Kamera bewegst, bekommst du Artefakte, insbesondere bei schnellen Bewegungen. Das ist unausweichlich mit DLSS, unabhängig von der Einstellung.
Und gerade 1440p mit niedrigen DLSS Einstellungen schaut schon ziemlich schwach aus imo. Ultra ist da gerade noch okay. Das AA mag gut sein, allerdings tauscht du eine Art Artefakt gegen ein anderes aus.

IMO ist das einfach ein mieser trade-off, die RT-Effekte sind relativ subtil, was man vom DLSS kaum sagen kann. Kriegst du überhaupt 60fps hin mit einer 2060 und RT+DLSS in Cyberpunk?
Zuletzt geändert von Temeter  am 23.09.2022 18:11, insgesamt 1-mal geändert.
Benutzeravatar
Master Chief 1978
Beiträge: 2995
Registriert: 19.11.2007 15:21
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Master Chief 1978 »

MAudioBenny hat geschrieben: 23.09.2022 12:14 Ich würde eine RX 6700 non XT nehmen.

Die kostet aktuell 430 Euro… ganz klarer Preisleistungssieger.

Die schlägt auch die 3060 TI.

Ray Tracing spielt doch erst ab der 3070 langsam eine Rolle.
Hatte ich auch schon überlegt, ich möchte die ja Hauptsächlich für mein Durchgemoddetes Skyrim haben wegen der 12 GB VRam, bei 1080p bin ich bei der 1070 bei 81% Auslastung und 1440P bei 93% ein bisschen mehr Luft wäre da gut.

Ansonsten bin ich auch mit der Leistung der 1070 noch sehr zufrieden, 4K und Raytracing brauche ich nicht. Von Daher würde mir eine Mittelklasse Karte in meinem PCIE3Rechner auch völlig reichen.
Bild

Benutzeravatar
Skynet1982
Beiträge: 294
Registriert: 24.08.2012 13:37
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Skynet1982 »

MAudioBenny hat geschrieben: 23.09.2022 12:14 Ich würde eine RX 6700 non XT nehmen.

Die kostet aktuell 430 Euro… ganz klarer Preisleistungssieger.

Die schlägt auch die 3060 TI.

Ray Tracing spielt doch erst ab der 3070 langsam eine Rolle.
Für einen 50er mehr ist aktuell beispielsweise sogar eine Sapphire 6700XT Pulse drin. Empfehlenswert, solange man kein Blinki Blinki im Gehäuse braucht.
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von OchsvormBerg »

Temeter  hat geschrieben: 23.09.2022 18:10
OchsvormBerg hat geschrieben: 23.09.2022 16:28Ich nutze WQHD. DLSS "Quality" bringt im Schnitt 30% bessere Performance bei besserer Bildqualität und mit "geschenkter" Kantenglättung. In manchen Spielen nutze ich auch niedrigere DLSS-Stufen als Quality. Cyberpunk habe ich mit der Karte auf Raytracing Ultra mit DLSS "Performance" durchgespielt. Es ist unglaublich wie gut das Spiel selbst so noch aussieht, mit einer 2060 Super wohl gemerkt. Ja, man verliert bis zu einem gewissen Grad Bildschärfe, aber der Trade-off ist es wert. In vielen Situationen sieht es tatsächlich aus wie nativ mit dickem Anti-Aliasing.

Man braucht keine 3070+ für Raytracing, man muss nur Regler bedienen können.
Bessere Performance bei besserer Bildqualität war schon immer Unsinn. Vielleicht bei einem Standbild, aber sobald du die Kamera bewegst, bekommst du Artefakte, insbesondere bei schnellen Bewegungen. Das ist unausweichlich mit DLSS, unabhängig von der Einstellung.
Und gerade 1440p mit niedrigen DLSS Einstellungen schaut schon ziemlich schwach aus imo. Ultra ist da gerade noch okay. Das AA mag gut sein, allerdings tauscht du eine Art Artefakt gegen ein anderes aus.

IMO ist das einfach ein mieser trade-off, die RT-Effekte sind relativ subtil, was man vom DLSS kaum sagen kann. Kriegst du überhaupt 60fps hin mit einer 2060 und RT+DLSS in Cyberpunk?
Hast Du DLSS überhaupt mal ausgiebig getestet in WQHD? In verschiedenen Spielen? Bessere Performance bei besserer Bildqualität ist nur dann Unsinn, wenn einfach nur Auflösungen hochskaliert werden. Bei DLSS arbeitet ein KI-Algorythmus, der teilweise mehr Details hervorbringt als das native Bild. Es gab in der deutschen Fachpresse sehr gute Tests dazu.

Natürlich ist das System nicht perfekt, aber gerade bei eher schwache GPUs ist es eine echte Offenbarung. Ohne DLSS hätte ich Cyberpunk runterschrauben müssen bis zum geht nicht mehr. So konnte ich es mit maximalen Details spielen. Mit DLSS Performance sieht das Spiel in seinen besten Momenten aus wie nativ mit hochwertiger Kantenglättung, in seinen schlechtesten Momenten wie nativ mit aggressivem FXAA. Und wahrnehmbare Artefakte hatte ich in Cyberpunk trotz DLSS Performance nur bei den Straßenmarkierungen auf Entfernung. Das Spiel lief so für mich anständig spielbar, die meiste Zeit mit um die 60 FPS, in Kämpfen mit vielen Gegnern auch weniger. Das ist immernoch besser als auf den Konsolen.

In Anderen Spielen wird so mehr oder weniger pauschal DLSS Quality aktiviert. Das ist ein Performance Boost von rund 30% und es sieht definitiv deutlich besser aus als nativ ohne Kantenglättung. Es sieht auch besser aus als nativ mit mittelmäßiger Kantenglättung.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Temeter  »

OchsvormBerg hat geschrieben: 24.09.2022 10:05Hast Du DLSS überhaupt mal ausgiebig getestet in WQHD? In verschiedenen Spielen? Bessere Performance bei besserer Bildqualität ist nur dann Unsinn, wenn einfach nur Auflösungen hochskaliert werden. Bei DLSS arbeitet ein KI-Algorythmus, der teilweise mehr Details hervorbringt als das native Bild. Es gab in der deutschen Fachpresse sehr gute Tests dazu.
Jop, der legendäre KI-Algorythmus. DLSS 1 hat das KI-Zeugs benutzt, und das Ergebnis war miserabel. Und das ist übrigens keine "intelligente KI", sondern einfach nur ein vorgefertigtes neurales Netz. Die "KI" läuft bei Nvidia und rechnet die Einstellungen aus und das nutzt deine Karte.

DLSS 2.0 hat das alles über Bord geworfen und ist im Grunde enfach temporales Upscaling, sprich es vergleicht Frames und übernimmt Pixel. Deswegen mag ein Standbild mit wenig Bewegung toll aussehen, aber mach eine schnelle Drehung, oder hab Details vor hellem Hintergrund, oder helle Lichtpunkte, und du kriegst ordentliche Artefakte. Komplexere Strukturen sehen manchmal verfälscht aus.

Erinnert mich fast ein bisschen an Motion Blur.

KA wieso da irgendwer immer noch "besser als Nativ" erzählen will, oder als ob da eine magische KI Details hinzupinselt.
Zuletzt geändert von Temeter  am 24.09.2022 11:27, insgesamt 2-mal geändert.
Benutzeravatar
Leon-x
Beiträge: 12245
Registriert: 04.02.2010 21:02
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Leon-x »

OchsvormBerg hat geschrieben: 24.09.2022 10:05
Hast Du DLSS überhaupt mal ausgiebig getestet in WQHD? In verschiedenen Spielen? Bessere Performance bei besserer Bildqualität ist nur dann Unsinn, wenn einfach nur Auflösungen hochskaliert werden. Bei DLSS arbeitet ein KI-Algorythmus, der teilweise mehr Details hervorbringt als das native Bild. Es gab in der deutschen Fachpresse sehr gute Tests dazu.

Diskussion glaube ich kannst dir sparen. Er versucht immer noch Leuten einzureden dass es schlechter sein muss anstatt einfach mal zu glauben dass Personen ihren eigenen Augen schon trauen können.

Bleibt einem doch selber überlassen was einem wichtig ist und besser gefällt. Gibt nun mal gute Upscalingmethoden. DLSS 2.3 hat schon weit weniger Artefakte als Früher.

Welbst wenn man DLSS aus lässt hast zu 95% Heute nur TAA in Spielen als Kantenglättung. Sorgt A: selber für genug Artefakte wie Ghosting und B: macht zu 60% auf nativen 4k Bild eine WQHD Auflösung (oder WQHD zu Full HD) in der Bildschärfe daraus. Weil es nun mal weichzeichnet. Desegen gibt es schon Spiele due extra Nachschärferegler haben.
Von Artefakten bei Haarstränen ganz abgesehen.

Man hat so oder so immer irgemdwo einen Nachteil.

Was ich bei DLSS, FSR 2.0 oder guten TAAU gut finde ist dass man oft nur 1x die Grafiksetting einstellen muss. Zu oft hast Spiele wo ersten Level locker in 4k/60 gehen aber sobald such Welt etwas öffnet oder mehr Effekte dazukommen schafft GPU keine 1440-1600p mehr mit hohen Setting.

Mich persönlich nervt es wenn man ständig neu Nachregeln muss. Sache die auch bei Konsolen angenehm ist weil msn Spiel dann auch zockt anstatt im Grafikmenü rumzuhängen.

Selbst unabhöngig vor RT sind neue Engine wie UE5 recht Leistungshungrig. Schaffst mit Top-Karten auch kaum mehr als 1440p/60 und musst eher 1080p mit Epic eigenem TAAU verwenden wenn man konstante Performance will.

Wird sich bei den immer schwieriger werdenen Grafiksprüngen nicht vermeiden lassen hier da gute Upscaler zu verwenden. Jede kleine Grafikverbesserung frisst immer mehr Leistung. Ohne RT schon.
DLSS und Co kann allein schon bei Problemen mit Speicherbandbreite und großen Texturen helfen ohne dass man 24GB GPU benötigt.

Soll Jeder einstellen was er will in Sachen Auflösung, Effekte und Framerate.
Mehr Optionen wie DLSS, FSR oder TAAU sind doch immer gut.
Eigenen Augen müssen entscheiden was auf dem Bildschirm gefällt.
Zuletzt geändert von Leon-x am 24.09.2022 11:35, insgesamt 1-mal geändert.
-PC
-Playstation 5
-Nintendo Switch
-Xbox Series X
OchsvormBerg
Beiträge: 1379
Registriert: 12.03.2008 20:17
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von OchsvormBerg »

Temeter  hat geschrieben: 24.09.2022 11:25 Jop, der legendäre KI-Algorythmus. DLSS 1 hat das KI-Zeugs benutzt, und das Ergebnis war miserabel. Und das ist übrigens keine "intelligente KI", sondern einfach nur ein vorgefertigtes neurales Netz. Die "KI" läuft bei Nvidia und rechnet die Einstellungen aus und das nutzt deine Karte.

DLSS 2.0 hat das alles über Bord geworfen und ist im Grunde enfach temporales Upscaling, sprich es vergleicht Frames und übernimmt Pixel. Deswegen mag ein Standbild mit wenig Bewegung toll aussehen, aber mach eine schnelle Drehung, oder hab Details vor hellem Hintergrund, oder helle Lichtpunkte, und du kriegst ordentliche Artefakte. Komplexere Strukturen sehen manchmal verfälscht aus.

Erinnert mich fast ein bisschen an Motion Blur.

KA wieso da irgendwer immer noch "besser als Nativ" erzählen will, oder als ob da eine magische KI Details hinzupinselt.
Stimmt nicht. Auch DLSS 2.X trainiert anhand von 16K Bildern sein neuronales Netzwerk an und fügt so Details in Spielen hinzu.

Und ich bleib dabei, Du hast DLSS 2.X nie richtig getestet, sonst würdest Du sowas nicht behaupten. Warzone und BF 2042 lassen sich mit DLSS wunderbar spielen, trotz schneller Bewegungen und ohne Motion Blur oder störende Artefakte.
Benutzeravatar
Leon-x
Beiträge: 12245
Registriert: 04.02.2010 21:02
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Leon-x »

Intels Lösung scheint noch einige Schwierigkeiten zu haben:



Rest ist je nach Game und Version schon weiter. Zeigt auch dass es Vorteile gegenüber Nativ und TAA hat.
-PC
-Playstation 5
-Nintendo Switch
-Xbox Series X
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Temeter  »

OchsvormBerg hat geschrieben: 24.09.2022 11:50Stimmt nicht. Auch DLSS 2.X trainiert anhand von 16K Bildern sein neuronales Netzwerk an und fügt so Details in Spielen hinzu.
Ach, und wie genau fügt es Details in Spiele ein? Spoiler: Tut es eben nicht. Du weißt vermutlich nicht mal, was für eine KI die da überhaupt nutzen. Das ganze ist sehr viel banaler, als es sich anhört.

Sorry man, aber gerade diese Art Missverständnis ist, warum ich gerne DLSS kritisiere, auch wenn es eine interessante Technik ist.

Was Nvidia bei DLSS 2 macht, es nutzt die "KI", um die richtigen Einstellungen zu finden, bei denen so wenig wie möglich von den Details verloren geht. Dafür ist das 16K Bild da. Die KI "merkt" sich keine Details, das wäre nahezu unmöglich umzusetzen. Aber du kannst halt ein neuronales Netz rausrechnen, um zu sehen, wie die Pixel übernimmst und wie du Qualität beibehälst.

Und auf der GPU laufen diese Einstellungen, und keine "echte" KI.
Und ich bleib dabei, Du hast DLSS 2.X nie richtig getestet, sonst würdest Du sowas nicht behaupten. Warzone und BF 2042 lassen sich mit DLSS wunderbar spielen, trotz schneller Bewegungen und ohne Motion Blur oder störende Artefakte.
Das kannst du dir ruhig einreden. Die Artefake sind objektiv da und unvermeidlich, ob du sie nun bemerkst oder nicht.
Zuletzt geändert von Temeter  am 24.09.2022 12:52, insgesamt 1-mal geändert.
Benutzeravatar
Temeter 
Beiträge: 18065
Registriert: 06.06.2007 17:19
Persönliche Nachricht:

Re: Hardware - Special

Beitrag von Temeter  »

Leon-x hat geschrieben: 24.09.2022 12:32Rest ist je nach Game und Version schon weiter. Zeigt auch dass es Vorteile gegenüber Nativ und TAA hat.
Du siehst aber auch die Verzerrung bei DLSS bei dem sich bewegenden Charachteren, und jede Kamerabewegung wird das gleiche Problem noch stärker haben. Das ist halt der Kompromiss beim Upscaling.
19:10 zeigt auch gut, wie schon eine leichte, nichtlineare Kamerabewgung Probleme verursachen kann. Du siehst teils verschwommene Texturen oder flackernde Lichter. Das meine ich mit Artefakten und verminderter Bildqualität.
Das ist für mich ein ziemlich klares Downgrade.

Wobei temporales Upscaling bei 4K generell sicher eine tolle Sache ist; das konnte ich persönlich noch nicht testen, aber ist halt extrem teuer in Sachen frames sonst. Temporales scaling bei 1080p ist grausig, aber wenn du bei 4K ankommst, ist die grundlegende Render-Auflösung meist schon so hoch, dass die Probleme minimiert werden. 1440p finde ich dagegen eher ein bissl enttäuschend.

Trotzdem hoffe ich, dass temporales Zeugs noch ein bissl getunt wird (und AMD und Intel weiter nachlegen). Ich nutze eine 144hz-Bildschirm, weil mir flüssige Bewegungen und minimaler Blur/Artefakte/Lag sehr wichtig sind.
Selbst TAA finde ich oft nervig mit seinen Artefakten, auch wenn es die beste Lösung für natives AA ist (abseits von supersampling).
Zuletzt geändert von Temeter  am 24.09.2022 13:17, insgesamt 4-mal geändert.
Antworten