NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von Liesel Weppen »

DonDonat hat geschrieben: 10.04.2017 14:12 Das Seitenverhältnis ist 21:9 (falls es dich interessiert: Acer x34 ist das Modell)
Ah, stimmt, ich hab mal wieder Breite und Höhe von 2560x1080 mit den 3440x1440 durcheinander gewürfelt.
DonDonat hat geschrieben: 10.04.2017 14:12 und klar sehe ich bei ner Linie in Paint Pixel, dass liegt aber wie du schon gesagt hast an der PPI. Nur fällt mir dass beim Spielen selbst bei fast minimalem AA eben nicht auf^^
Wie du selbst sagst: Bei minimalem AA. Wir reden hier aber davon, dass man eben gar kein AA mehr verwendet. Und da du wohl selbst noch "minimales AA" aktiviert hast, stört es dich also wohl doch, wenn Kanten pixelig werden oder sogar flimmern, oder warum schaltest du es dann nicht ganz ab?
DonDonat hat geschrieben: 10.04.2017 14:12 PS: beim Augenarzt war ich schon, trage deswegen schon seit gut 10 Jahren ne Brille :Pirat:
Wenn dir der Augenarzt vor 10 Jahren eine Brille verschrieben hat, heisst das nicht, dass die auch heute noch passt. ;)
Benutzeravatar
Knarfe1000
Beiträge: 1947
Registriert: 20.01.2010 10:00
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von Knarfe1000 »

Hiri hat geschrieben: 08.04.2017 17:37 Sprengt leicht meine Prinzipien und mein Geldbeutel ABER damn nice Kärtchen :D hab noch die GTX 1080. Wollte eigentlich noch die 1080 Ti kaufen. Jetzt bin ich schwer am überlegen ob ich diese hole. Meine letzte Titan war die Titan Black.
Mit der 1080 ti liebäugele ich auch, warte aber noch auf die Vega.

Die Titan sind einfach unverhältnismäßig teuer.
eigentlichegal
Beiträge: 1338
Registriert: 12.08.2013 16:09
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von eigentlichegal »

Knarfe1000 hat geschrieben: 10.04.2017 14:43 Die Titan sind einfach unverhältnismäßig teuer.
Du musst dich einfach mal von diesem Relationendenken lösen, man. Absolute Werte sind das einzige Wahre. Und da kannst du vollkommen bedenkenlos zur Titan XP greifen. 12 Teraflops, Alter!!
Benutzeravatar
DonDonat
Beiträge: 6816
Registriert: 23.08.2007 19:56
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von DonDonat »

Liesel Weppen hat geschrieben: 10.04.2017 14:27
DonDonat hat geschrieben: 10.04.2017 14:12 und klar sehe ich bei ner Linie in Paint Pixel, dass liegt aber wie du schon gesagt hast an der PPI. Nur fällt mir dass beim Spielen selbst bei fast minimalem AA eben nicht auf^^
Wie du selbst sagst: Bei minimalem AA. Wir reden hier aber davon, dass man eben gar kein AA mehr verwendet. Und da du wohl selbst noch "minimales AA" aktiviert hast, stört es dich also wohl doch, wenn Kanten pixelig werden oder sogar flimmern, oder warum schaltest du es dann nicht ganz ab?
Weil ich ohnehin schon genug FPS hab und es halt immer noch etwas besser aussieht leichtes AA drauf zu haben.

Und ob man 8k Monitore hat oder aber Geräte mit weniger Auflösung, dafür aber AA, spricht wohl in Sachen benötigter Leistung eher dafür dass wir weiter mit AA arbeiten anstatt mit exorbitant hohen Auflösungen ;)

Liesel Weppen hat geschrieben: 10.04.2017 14:27
DonDonat hat geschrieben: 10.04.2017 14:12 PS: beim Augenarzt war ich schon, trage deswegen schon seit gut 10 Jahren ne Brille :Pirat:
Wenn dir der Augenarzt vor 10 Jahren eine Brille verschrieben hat, heisst das nicht, dass die auch heute noch passt. ;)
So dumm bin ich nun wieder auch nicht xD
Jedes Jahr 1x oder wenn die Brille mal beim Volleyball-Spielen gespalten wird, dann auch mehrmals im Jahr :P


EDIT: erste Benchmarks lassen übrigend schon erkennen dass die Titan Xp etwa so schnell ist wie die 1080Ti im OC.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von Liesel Weppen »

DonDonat hat geschrieben: 10.04.2017 15:57 Weil ich ohnehin schon genug FPS hab und es halt immer noch etwas besser aussieht leichtes AA drauf zu haben.
Ja siehst du, es sieht also mit AA doch besser aus, also ist die Pixeldichte doch noch zu niedrig.
DonDonat hat geschrieben: 10.04.2017 15:57 Und ob man 8k Monitore hat oder aber Geräte mit weniger Auflösung, dafür aber AA, spricht wohl in Sachen benötigter Leistung eher dafür dass wir weiter mit AA arbeiten anstatt mit exorbitant hohen Auflösungen
Du verwechselst Ursache und Wirkung. Man will nicht 8k, weil man dann AA weglassen kann, man will 8k weil man damit die wahrnehmbare Auflösung überschreitet und damit maximal mögliche Bilddetails in ALLEN Bildbereichen hat.
Das diese Detailfülle dann eben auch gleich so hoch ist, dass man gar kein AA mehr braucht, ist nur ein praktischer Nebeneffekt.
unknown_18
Beiträge: 26973
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von unknown_18 »

DonDonat hat geschrieben: 10.04.2017 08:50 Aber wie schon gesagt wurde, bei 4k ist Kantenglättung halt eh nicht mehr so wichtig.
Wer das sagt, hat merklich kein UHD. Auch bei 4K braucht man immer noch ordentliches AntiAliasing um Kantenflimmern wirklich den Gar aus zu machen und ein ruhiges Bild zu kriegen.
Na ja 8k ist schon etwas übertrieben: auf 28 Zoll siehst du so viele Pixel gar nicht, genau wie bei Smartphones mit "4k Display" hält sich der Nutzen auf so einer Bildschirm-Diagonalen halt schon sehr in Grenzen.
Du hast wirklich keine Ahnung, du tust mir leid. ;)
Ich hab kein UHD weil dass für meine Grafikkarte einfach etwas viel ist: 3440x1440 geht noch ganz ok aber dann der Schritt zu UHD ist schon etwas viel. Aber selbst hier würde ich deine These voll unterschreiben: mehr Pixel sind einfach besser :D
Wusste ich schon oben, dass du kein UHD hast. Aber wieso stimmst du mir einerseits zu das mehr Pixel einfach besser sind, widerspricht mir dann aber das 8k bei 28" völlig übertrieben und nahezu "nutzlos" wären? Ist es definitiv nicht.
Prinzipiell wäre für UHD (und ähnlich hohe Auflösungen) eigentlich immer Adaptive-Sync (also FreeSync/ GSync) sinnvoll, nur haben wir da halt wieder das Problem dass Nvidia und AMD ihr eigenes Ding machen und der Monitor so von der Grafikkarte abhängig ist :(
Dabei müssen es ja nicht mal 30-100+Hz sein die von Adaptive-Sync unterstützt werden, 30Hz-60Hz wären vollkommen ausreichend...
Mit der Technik hab ich keinerlei Erfahrung, kann ich wenig zu sagen. Interessant ist die Technik alle mal, aber NVidia lässt sich die Technik auch gut bezahlen.
Liesel Weppen hat geschrieben: 10.04.2017 17:16 Du verwechselst Ursache und Wirkung. Man will nicht 8k, weil man dann AA weglassen kann, man will 8k weil man damit die wahrnehmbare Auflösung überschreitet und damit maximal mögliche Bilddetails in ALLEN Bildbereichen hat.
Das diese Detailfülle dann eben auch gleich so hoch ist, dass man gar kein AA mehr braucht, ist nur ein praktischer Nebeneffekt.
Hätte ich nicht besser sagen können, genau so ist es.

Man könnte auch sagen: wenn Kantenglättung null Verbesserung der Bildqualität zeigt, dann hat man die richtig Pixeldichte erreicht.

Ich sag das lieber sorum, warum? Wenn 8K bei 28" Zoll gerade so dafür reicht, wird es bei einem deutlich größeren Monitor nicht mehr reichen. Von daher ist die ideale Auflösung eben nicht 8K, sondern ein bestimmter Pixelabstand macht die ideale Auflösung für die entsprechende Bildschirmgröße fest.

Bei den Smartphones haben wir das schon erreicht, deren Pixelabstand ist bei einigen Geräten bereits optimal. Bei PC Monitoren sind wird davon aber noch sehr weit entfernt.

Ich bin eben direkt von 1080p auf 2160p umgestiegen, also UHD und damit direkt der 4fachen Auflösung, wobei mit dem Wechsel bin ich auch von 24" auf 28" Zoll umgestiegen, wodurch eben nicht der Pixelabstand exakt halbiert. Jedenfalls war das ein sehr starker Unterschied und entsprechend stark fielen die Vorteile durch höhere Pixeldichte auf, entsprechend ist es leichter fest zu machen was sich damit alles verbessert. Und ein Punkt war eben auch die Immersion in Spielen. In The Witcher 3 am Anfang auf dem Balkon zu stehen und diese Weitsicht mit der gleichzeitig hohen Detail Dichte zu sehen, so ein Immersionsgefühl hatte ich noch nie auf dem Bildschirm, das Bild fühlte sich schon fast 3D an, obwohl es ja nur ein 2D Bild ist fühlte ich die Tiefe.
Benutzeravatar
DonDonat
Beiträge: 6816
Registriert: 23.08.2007 19:56
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von DonDonat »

Balmung hat geschrieben: 10.04.2017 18:12 Wusste ich schon oben, dass du kein UHD hast. Aber wieso stimmst du mir einerseits zu das mehr Pixel einfach besser sind, widerspricht mir dann aber das 8k bei 28" völlig übertrieben und nahezu "nutzlos" wären? Ist es definitiv nicht.
Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Balmung hat geschrieben: 10.04.2017 18:12 Mit der Technik hab ich keinerlei Erfahrung, kann ich wenig zu sagen. Interessant ist die Technik alle mal, aber NVidia lässt sich die Technik auch gut bezahlen.
Ja, Nivida will gegenüber AMD meist noch mal gut 100€ mehr für ein sehr ähnliches Feature haben :(
Allerdings ist Adaptive-Sync halt schon sehr sinnvoll: nur deswegen konnte ich Fallout 4 richtig spielen, da ich dort leider oft FPS Drops in den <60FPS Bereich habe. Oder um ein anders Beispiel zu nennen: Nier Automata lässt sich so auch ausgezeichnet spielen und dass obwohl der PC-Port alles andere als gelungen ist.

Balmung hat geschrieben: 10.04.2017 18:12
Liesel Weppen hat geschrieben: 10.04.2017 17:16 Du verwechselst Ursache und Wirkung. Man will nicht 8k, weil man dann AA weglassen kann, man will 8k weil man damit die wahrnehmbare Auflösung überschreitet und damit maximal mögliche Bilddetails in ALLEN Bildbereichen hat.
Das diese Detailfülle dann eben auch gleich so hoch ist, dass man gar kein AA mehr braucht, ist nur ein praktischer Nebeneffekt.
Hätte ich nicht besser sagen können, genau so ist es.

Man könnte auch sagen: wenn Kantenglättung null Verbesserung der Bildqualität zeigt, dann hat man die richtig Pixeldichte erreicht.

Ich sag das lieber sorum, warum? Wenn 8K bei 28" Zoll gerade so dafür reicht, wird es bei einem deutlich größeren Monitor nicht mehr reichen. Von daher ist die ideale Auflösung eben nicht 8K, sondern ein bestimmter Pixelabstand macht die ideale Auflösung für die entsprechende Bildschirmgröße fest.
Ich scheine mich nicht klar genug ausgedrückt zu haben: mir ist der Nutzen von 8k und ähnlich hohen Auflösungen bzw. daraus resultierenden PPIs sehr wohl bewusst, nur erscheint es mir beim abwägen zwischen der Leistung die für 4k (oder geringere Auflösungen) und AA nötig sind und der, die für 8k nötig sind halt viel sinnvoller AA zu nutzen anstatt 8k.
unknown_18
Beiträge: 26973
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von unknown_18 »

DonDonat hat geschrieben: 10.04.2017 18:33Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Demnach dürften alle max. mit einem 720p Smartphone Display rum rennen, wenn ja so eine hohe Pixeldichte keinen Sinn für den Normal-Nutzer macht. ^^

Zumal man merkt das du nicht ganz versteht was für Vorteile eine hohe Pixeldichte so alles mit sich bringt, das sind einige Dinge.
Ja, Nivida will gegenüber AMD meist noch mal gut 100€ mehr für ein sehr ähnliches Feature haben :(
Allerdings ist Adaptive-Sync halt schon sehr sinnvoll: nur deswegen konnte ich Fallout 4 richtig spielen, da ich dort leider oft FPS Drops in den <60FPS Bereich habe. Oder um ein anders Beispiel zu nennen: Nier Automata lässt sich so auch ausgezeichnet spielen und dass obwohl der PC-Port alles andere als gelungen ist.
Kenne schon die Funktionsweise und was es bewirkt (primär das zerreißen des Bildes bei einer krummen FPS Rate), nur praktisch kenne ich es halt nicht und kann daher den Mehrwert nicht ganz einschätzen. ^^

Vorteil dürfte sicherlich sein, dass man dauerhaft mehr aus der Grafikkarte raus holen kann, die dann aber wohl durchgehend eher am Limit läuft.
Ich scheine mich nicht klar genug ausgedrückt zu haben: mir ist der Nutzen von 8k und ähnlich hohen Auflösungen bzw. daraus resultierenden PPIs sehr wohl bewusst, nur erscheint es mir beim abwägen zwischen der Leistung die für 4k (oder geringere Auflösungen) und AA nötig sind und der, die für 8k nötig sind halt viel sinnvoller AA zu nutzen anstatt 8k.
Ja, sorry, ich denke halt nicht in so einem begrenzten Maßstab sondern allgemein bei so etwas auch an die Zukunft. Von daher spielt bei mir der aktuelle Ist-Zustand keine Rolle, wenn ich darüber rede.

Das aktuell 8k keinen Sinn machen würde, geschenkt, das sollte Jedem klar sein. Nur sollte man deswegen nicht dazu verfallen zu denken, dass man sich einfach an 4K gewöhnt und sagt "mehr brauche ich nicht", zu schnell sitzt man dann wieder ewig an UHD fest. Das Ziel sollte immer sein mehr haben zu wollen bis es wirklich reicht und das wäre eben eine PPI, bei der AA nichts mehr bringt.

Entsprechend bedeutet das, sobald es die Technik gibt, also auch die nötige Grafikkarten Power, und sie bezahlbar ist werde ich darauf umsteigen.
Benutzeravatar
XBLiveTV ONE
Beiträge: 43
Registriert: 11.03.2017 15:41
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von XBLiveTV ONE »

Ich poste ja normalerweise nichts zu PC-Themen. Aber solche Mondpreise für eine Grafikkarte sind einfach nur lächerlich. Wenn ein ganzer PC soviel kostet, und dann mindestens 2-3 Jahre ausreicht, ok. Das ist in etwa die Hälfte meines Monatsbudgets... ich käme nie auf die Idee sie dafür rauszuschmeißen. Naja, gibt auch Leute, die sich jedes Jahr das neueste iPhone/Samsung/etc. für nun bald über 1000€ kaufen. Und doch können sie nicht in besserer Qualität telefonieren als jemand, der ein Smartphone für 200€ hat.

Die ganze Welt wettert über Leute, die DLCs kaufen. Aber wer dann solche Preise bei Hardware unterstützt, der muss über die 4-15€ DLC-Preise wirklich nicht meckern. Auch hier gilt: Wenn´s keiner kauft, wird´s auch zum halben Preis angeboten werden.
unknown_18
Beiträge: 26973
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von unknown_18 »

Diese Karte richtet sich auch nicht an den breiten Massenmarkt sondern an eine deutlich limitiertere Zielgruppe. Darum kann man sie auch nur direkt bei NVidia kaufen und nicht im freien Handel.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von Liesel Weppen »

DonDonat hat geschrieben: 10.04.2017 18:33 Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Wenn du bei dem Vergleich bleiben willst, dann würde ich sagen, wer keine 32GB RAM braucht, soll sich auch keine 32GB Ram kaufen. Wer aber bei 28" UHD auf Schreibtischdistanz keinen Unterschied zu FHD sieht, der sollte dringenst zum Augenarzt gehen.
Ich hab mir damals in der Schule auch nichts dabei gedacht, warum ich aus der letzten Reihe die Tafelanschrift nicht mehr lesen konnte. Nun, das war nicht normal, sondern ich habe einfach nur schlecht gesehen und brauchte eine Brille.
Balmung hat geschrieben: 10.04.2017 18:12 Ja, Nivida will gegenüber AMD meist noch mal gut 100€ mehr für ein sehr ähnliches Feature haben :(
Allerdings ist Adaptive-Sync halt schon sehr sinnvoll: nur deswegen konnte ich Fallout 4 richtig spielen, da ich dort leider oft FPS Drops in den <60FPS Bereich habe. Oder um ein anders Beispiel zu nennen: Nier Automata lässt sich so auch ausgezeichnet spielen und dass obwohl der PC-Port alles andere als gelungen ist.
Adaptive-Sync ist nur der Vorgänger von Freesync. Und nur weil die Technik ähnlich ist, heisst das nicht, dass sie gleichwertig sind.
Und G-Sync ist halt einfach besser, weil kurzfassung:
1) Normaler Monitor mit 60 (oder 120 oder 144Hz), der Monitor pollt in seinem fixen Raster, gegeben durch seinen eigenen Timer, den Framebuffer und stellt das dar. Ohne V-Sync entsteht dabei Tearing (mit steigender Hertzzahl UND FPS natürlich weniger auffällig, weil der zeitliche Versatz kleiner wird). Das kommt daher, weil die Monitorrefreshrate und die FPS-Produktion der Geaka in keine weise synchronisiert sind. V-Sync synchronisiert das und vermeidet somit Tearing. Heisst aber bei einem 60Hz Monitor leider zwangläufig, dass die Graka entweder 60fps liefern muss, oder die Framerate direkt auf 30fps/Hz einbricht, auch wenn die Graka 59fps liefern könnte, aber eben keine 60.
2) Mit Freesync hat der Monitor nachwievor seinen eigenen Timer, nur das der nichmehr mit fixen 60Hz läuft. Die Grafikkarte kann dem Monitor sagen, dass er seine Frequenz ändern soll. Der Monitor pollt also weiterhin, nicht stur mit 60Hz aber mit der Frequenz die er halt gerade hat. Weil sich aber nie vorraussagen lässt, wie lange die Graka braucht um den nächsten Frame zu berechnen, ergibt sich dadurch zwangsläufig immer ein Versatz, der zwar synchronisert wird, aber nicht beim Optimum ist.
3) G-Sync hat gar keine Taktung mehr im Monitor, hier sagt die Grafikkarte dem Monitor wann er sich refresehen soll. Und das tut sie natürlich jeweils, wenn sie einen Frame fertig berechnet hat. Damit entsteht gar kein Versatz mehr und die Regelung ist hier wirklich Framegenau und funktioniert daher von 0,00001fps bis dahin, was der Monitor eben maximal kann (also aktuell wohl 144Hz).

Das ganze ist historisch bedingt, CRTs brauchten eine Refreshrate, weil das Bild nur via Nachleuchten der Phosphorschicht erzeugt wurde. Ein CRT hat einmal ein Bild gezeichnet und das ist nach ein paar ms wieder verblasst. Deswegen musste der regelmäßig refreshen. Deswegen auch das Flimmern von CRTs, wenn die Refreshrate zu niedrig war.
TFTs dagegen haben das Problem gar nicht. Wenn die einmal einen Frame anzeigen, ist der Frame unendlich lange sichtbar, da flimmert nichts und verblasst auch nicht. Die Kristalle ändern sich nicht, solange der Monitor Strom hat und die Hintergrundbeleuchtung leuchtet sowieso dauernd. Auch bei OLEDs haben die Pixel Spannung und behalten ihre Farbe solange, wie Spannung anliegt, nur die brauchen halt keine Hintergrundbeleuchtung, weil die Pixel selbstleuchtend sind (wie auch bei Plasma).
Es ist also sogar eher unpraktisch, wenn so ein Monitor fixe Refreshraten fährt.
Nur NVidia hat sich das nur absolut logische Verfahren halt patentieren lassen und verlangt jetzt selbstverständlich Patentgebühren dafür.

Balmung hat geschrieben: 10.04.2017 18:12 Ich sag das lieber sorum, warum? Wenn 8K bei 28" Zoll gerade so dafür reicht, wird es bei einem deutlich größeren Monitor nicht mehr reichen. Von daher ist die ideale Auflösung eben nicht 8K, sondern ein bestimmter Pixelabstand macht die ideale Auflösung für die entsprechende Bildschirmgröße fest.
Verschwendete liebesmüh. Mit Leuten die den Zusammenhang zwischen Auflösung und Betrachtungsabstand nicht kapiert haben oder nicht kapieren wollen, braucht man eigentlich gar nicht diskutieren.
Da kommt dann nur immer die ewige Frage, warum man an einem 55" TV doch mit FHD gut auskommt, während man an einem Monitor selbst bei FHD Pixel sieht. Das man vom TV durchaus 2, 3, 4m weit wegsitzt, während man am Schreibtisch vom FHD-Monitor gerade mal 60cm entfernt ist, wollen die einfach nicht kapieren.
Balmung hat geschrieben: 10.04.2017 18:12 Ich scheine mich nicht klar genug ausgedrückt zu haben: mir ist der Nutzen von 8k und ähnlich hohen Auflösungen bzw. daraus resultierenden PPIs sehr wohl bewusst, nur erscheint es mir beim abwägen zwischen der Leistung die für 4k (oder geringere Auflösungen) und AA nötig sind und der, die für 8k nötig sind halt viel sinnvoller AA zu nutzen anstatt 8k.
Also mir ist das schon klar. Der Verzicht auf AA zu gunsten höheren Auflösungen wird auch nicht die nötige Rechenleistung aufwiegen um die höhere Auflösung überhaupt erreichen zu können. Aber wenn man die höhere Auflösung errecht, dann kann man eben auch AA einsparen.
unknown_18
Beiträge: 26973
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von unknown_18 »

Schlecht zitiert, da sind ein paar Zitate gar nicht von mir, war schon verwiirt. ;)

Ansonsten interessant das über Freesync/G-Sync zu lesen, klingt absolut logisch. Aber ich glaub UHD Geräte mit G-Sync gibts noch nicht so viel. Ist halt schade das NVidia Freesync überhaupt nicht supported, könnten sie problemlos, wenn sie wollten, wollen nur nicht.
Maxi Musterfrau 2.0
Beiträge: 359
Registriert: 15.03.2017 10:47
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von Maxi Musterfrau 2.0 »

XBLiveTV ONE hat geschrieben: 10.04.2017 20:35 Ich poste ja normalerweise nichts zu PC-Themen. Aber solche Mondpreise für eine Grafikkarte sind einfach nur lächerlich. Wenn ein ganzer PC soviel kostet, und dann mindestens 2-3 Jahre ausreicht, ok. Das ist in etwa die Hälfte meines Monatsbudgets... ich käme nie auf die Idee sie dafür rauszuschmeißen. Naja, gibt auch Leute, die sich jedes Jahr das neueste iPhone/Samsung/etc. für nun bald über 1000€ kaufen. Und doch können sie nicht in besserer Qualität telefonieren als jemand, der ein Smartphone für 200€ hat.

Die ganze Welt wettert über Leute, die DLCs kaufen. Aber wer dann solche Preise bei Hardware unterstützt, der muss über die 4-15€ DLC-Preise wirklich nicht meckern. Auch hier gilt: Wenn´s keiner kauft, wird´s auch zum halben Preis angeboten werden.
Angebot und Nachfrage. Sofern das Produkt sich so verkauft, das NV damit Gewinn macht, ist es kein Mondpreis.
Benutzeravatar
DonDonat
Beiträge: 6816
Registriert: 23.08.2007 19:56
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von DonDonat »

Liesel Weppen hat geschrieben: 10.04.2017 22:42
DonDonat hat geschrieben: 10.04.2017 18:33 Weil 8k in 28 Zoll nun mal begrenzt sinnvoll sind. Als Analogie dazu bzw. um besser zu erklären wieso meine Meinung so divers erscheint ein Beispiel mit RAM: einerseits ist viel RAM gut/ sinnvoll, da so mehr Daten schnell zu Verfügung stehen können, andererseits gibt es für Normal-Nutzer quasi kein Szenario was 32GB RAM sinnvoll macht.
Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Wenn du bei dem Vergleich bleiben willst, dann würde ich sagen, wer keine 32GB RAM braucht, soll sich auch keine 32GB Ram kaufen. Wer aber bei 28" UHD auf Schreibtischdistanz keinen Unterschied zu FHD sieht, der sollte dringenst zum Augenarzt gehen.
Ich hab mir damals in der Schule auch nichts dabei gedacht, warum ich aus der letzten Reihe die Tafelanschrift nicht mehr lesen konnte. Nun, das war nicht normal, sondern ich habe einfach nur schlecht gesehen und brauchte eine Brille.
Erstens ist mein Vergleich sehr voll zutreffend, da es, wie bei 4k, durchaus Szenarien gibt wo 32GB Vorteile bieten können und man einen Unterschied zu weniger RAM durchaus spüren kann und zweitens wo kommt denn immer diese Unterstellung her mit 28 Zoll und FHD???
Ich habe nie auch nur erwähnt dass ich 28 Zoll bei FHD für sinnvoll halte :roll:

Wenn überhaupt, dann FHD in 23 oder 24 Zoll. Eher aber im Notebook Format bei 13-17 Zoll, wobei für das kreative Arbeiten mit z.B. Photoshop oder Illustrator auch hier WQHD einfach besser ist.

Liesel Weppen hat geschrieben: 10.04.2017 22:42
Balmung hat geschrieben: 10.04.2017 18:12 Ich sag das lieber sorum, warum? Wenn 8K bei 28" Zoll gerade so dafür reicht, wird es bei einem deutlich größeren Monitor nicht mehr reichen. Von daher ist die ideale Auflösung eben nicht 8K, sondern ein bestimmter Pixelabstand macht die ideale Auflösung für die entsprechende Bildschirmgröße fest.
Verschwendete liebesmüh. Mit Leuten die den Zusammenhang zwischen Auflösung und Betrachtungsabstand nicht kapiert haben oder nicht kapieren wollen, braucht man eigentlich gar nicht diskutieren.
Da kommt dann nur immer die ewige Frage, warum man an einem 55" TV doch mit FHD gut auskommt, während man an einem Monitor selbst bei FHD Pixel sieht. Das man vom TV durchaus 2, 3, 4m weit wegsitzt, während man am Schreibtisch vom FHD-Monitor gerade mal 60cm entfernt ist, wollen die einfach nicht kapieren.
Und wieder diese Unterstellungen :roll:
Sorry, aber nur weil ich versuche euch zu erklären wieso 8k einfach nicht das "Allheilmittel" darstellt muss ich mir so was nicht gefallen lassen.
Es ist einfach unfair, wenn ich hier versuche darzustellen wieso bzw. was für Punkte durchaus gegen eine 8k Auflösung sprechen und du mir in jeder zweiten Antwort einfach irgendwelche Sachen unterstellst, die ich so einfach nicht gesagt habe.

Speziell dass du mir unterstellst ich verstehe solch simple Zusammenhänge wie "Auflösung <-> Betrachtungsabstand" nicht, kränkt mich echt: klar weiß ich selbst in diesem speziellen Fachbereich nicht alles, aber als fast studierter Medieninformatiker sind so was Basics, die ich schon seit dem zweiten Semester weiß.
Und nur weil ich nicht jedes mal explizit darüber schreibe, wie viele Zeilen/ Pixel das menschliche Auge auf welche Distanz wahrnehmen kann oder was für einen Dynamikumfang das menschliche Auge tatsächlich wahrnehmen kann oder was für Psychologische/ Physiologische Effekte beim sehen Auftreten oder oder oder heißt es nicht dass ich solche Dinge nicht weiß.

Liesel Weppen hat geschrieben: 10.04.2017 22:42
DonDonat hat geschrieben: 10.04.2017 18:33 Ich scheine mich nicht klar genug ausgedrückt zu haben: mir ist der Nutzen von 8k und ähnlich hohen Auflösungen bzw. daraus resultierenden PPIs sehr wohl bewusst, nur erscheint es mir beim abwägen zwischen der Leistung die für 4k (oder geringere Auflösungen) und AA nötig sind und der, die für 8k nötig sind halt viel sinnvoller AA zu nutzen anstatt 8k.
Also mir ist das schon klar. Der Verzicht auf AA zu gunsten höheren Auflösungen wird auch nicht die nötige Rechenleistung aufwiegen um die höhere Auflösung überhaupt erreichen zu können. Aber wenn man die höhere Auflösung errecht, dann kann man eben auch AA einsparen.
Dass hab ich auch nie bestritten (!), nur kann man halt nicht pauschal sagen dass 8k alle Probleme löst.
Speziell im Hinblick auf die erforderliche, nun mal deutlich höhere Rechenleistung, wird 8k auch in den nächsten 5 Jahren eben einfach nicht praktikabel genug werden um damit zocken zu können.
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA Titan Xp angekündigt: 12 TFLOPS für 1350 Euro

Beitrag von Liesel Weppen »

DonDonat hat geschrieben: 11.04.2017 09:57 Nicht alles was hinkt ist ein Vergleich. RAM ist nicht sichtbar und hat keine Grenze, die die menschliche Wahrnehmung überschreiten würde.
Dein Vergleich sind die sprichwörtlichen Äpfel und Birnen. Nur weil beides Obst ist, haben die noch lange nicht viel miteinander zu tun.


Liesel Weppen hat geschrieben: 10.04.2017 22:42 Und wieder diese Unterstellungen :roll:
Sorry, aber nur weil ich versuche euch zu erklären wieso 8k einfach nicht das "Allheilmittel" darstellt muss ich mir so was nicht gefallen lassen.
Hab ich dich zitiert, oder Balmung? Balmung? Ok, dann warst du nicht gemeint. Also unterstell mir nicht, dass ich dir sachen unterstellen würde. Du bist nicht das Zentrum des Universums, es dreht sich nicht alles um dich!

Exakt die gleiche Antwort gilt auch für deine zwei weiteren Zitate, ich seh nur nicht ein, warum ich das jetzt dreimal schreiben soll.

Und damit hast du dich dann für mich auch für jede weitere Diskussion vollständig disqualifiziert.