NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistoren für 1.200 Dollar

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Liesel Weppen »

ronny_83 hat geschrieben:Nu wird´s langsam verrückt. Das Ding hat ja bald mehr Arbeitsspeicher als mein PC Arbeitsspeicher.
Das wird nicht verrückt, sondern ist normal. Gerade bei grafisch aufwendigen Spielen, wird immer mehr Speicher für die pure Grafik benötigt. Geometrien werden immer komplexer, Texturen immer höher aufgelöst, Shader immer komplexer, dass die Auflösung des angezeigten fertigen Bildes auch immer höher wird, macht da selbst mit Trippelbuffering praktisch schon keinen nennenswerten Anteil mehr aus (3840x2160 Pixel mal 32Bit Farbtiefe * 3fach Buffer = ~95MB!).
Das war auch früher bei Spielen schon so, insbesondere wenn die 3D-Grafik hatten, nur war damals noch nicht soviel an die Grafikkarte ausgelagert, sondern wurden über den vergleichsweise lahmen Hauptspeicher abgewickelt.
Jazzdude hat geschrieben:Mal eine Frage an die Techniker hier, da ich meine Mechatronikerausbildung damals abgebrochen hatte:
Warum wird denn heutzutage immer so viel mit Transistoren geprahlt? Das hat mich schon bei der XboxOne gewundert, weil so hervorgehoben!
Ich weiß nicht, wie weit du als Mechatroniker gekommen bist, ich hatte nur ein halbes Jahr E-Technik an der FOS.
https://de.wikipedia.org/wiki/XOR-Gatter

Erklärt das an einem einfachen Beispiel eigentlich ganz schön, warum man viele Transistoren braucht.
Besonders der Abschnitt CMOS-Realisierung zeigt das dann:
Ein so optimierter Voll-Addierer benötigt nur noch 26 Transistoren (2× 4 Transistoren für das XOR der Summe, 3× 4 Transistoren für das 2-fach-NAND und 1× 6 Transistoren für das 3-fach-NAND für den Übertrag). Ein 64×64-bit-Hardware-Multiplizierer lässt sich so mit knapp 140.000 Transistoren implementieren.
Um zwei 64Bit Zahlen addieren zu können, braucht man schon 140.000 Transistoren. Und das ist noch eine optimierte Schaltung die nicht anderes ausser zwei Zahlen addieren kann. Die kann nicht Multiplizieren, die kann nicht Dividieren oder gar Potenzen berechnen.
Wenn du jetzt in einem Rutsch/Takt gar 2 solcher Zahlen gleichzeitig addieren können willst, brauchst du schon 280.000 Transistoren.

Der i386SX hatte z.B. insgesamt nur 275.000 Transistoren. Der hatte aber auch nur 16Bit, der konnte also gar keine 2 64Bit Zahlen addieren, wenn dann nur umständlich und entsprechend sehr langsam, aber gar nicht in einem Takt.
Und bei der Generation war noch viel aus der CPU ausgelagert, was mittlerweile in CPUs integriert ist. Die konnten irc nichtmal Fließkommazahlen direkt selbst, dazu brauchte man damals noch einen Co-Processor.

Und wie wir damals vom 1Ghz-Wettrennen gelernt haben, lässt sich die Taktrate nicht beliebig steigern. Man kann also einen Rechner nicht unendlich dazu bringen, mehr Additionen pro Sekunde berechnen zu können, indem man den Takt immer höher schraubt, man kann ihn aber (auch nicht unendlich, aber noch deutlich flexibler) zu mehr Additionen pro Sekunde bringen, indem man pro Takt einfach mehr Additionen ausführt. Aber dafür braucht man mehr Transistoren.
Aber auch das geht nicht ewig so weiter, weil die Entfernungen innerhalb eines Chips schon zu groß werden und damit tatsächlich schon die Lichtgeschwindigkeit zum Problem wird. Es dauert zu lange, bis ein Stromfluss vom einen Ende des Chips bis zum anderen kommt. Das kann man noch kompensieren, indem man die Strukturen immer kleiner macht, weil der ganze Chip dadurch ja kleiner wird. Aber auch das geht nicht unendlich, weil bereits aktuelle 14nm Strukturen schon nur noch eine Breite von ein paar Atomen haben. 14nm sind zwar insgesamt ungefähr ~70 Silizium Atome "groß", aber in die 70 Atome muss ja nicht nur der eigentliche Leiter, sondern auch noch Isolation, etc, sonst gäbe es einen Kurzschluss.

Oder mit anderen Worten: Die Technik, wie wir aktuell CPUs bauen, ist physikalisch schon ziemlich am Ende. Die Taktrate lässt sich kaum mehr steigern und die Chipgröße (und damit die Anzahl der Transistoren) lässt sich nichtmehr allzusehr verringern. Deswegen geht man ja in Richtung Multicore (die Begrenzung gilt nur jeweils für einen Core), aber das macht die Recheneinheiten unabhängig und nicht jede Aufgabe lässt sich parallel berechnen.
Baralin
Beiträge: 1896
Registriert: 13.01.2007 14:58
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Baralin »

1200 Dollar? Manche kaufen sich für das Geld zwei Rechner! :-D
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Liesel Weppen »

Baralin hat geschrieben:1200 Dollar? Manche kaufen sich für das Geld zwei Rechner! :-D
Andere Leute kaufen sich dafür EINE neue Felge für ihr Auto...
bloub
Beiträge: 1542
Registriert: 22.05.2010 15:06
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von bloub »

flo-rida86 hat geschrieben: die titan modelle sind ja ohnehin jetzt nicht die richtigen gamerkarten.
eigentlich schon, zum arbeiten gibt es die quadro-reihe
johndoe824834
Beiträge: 3685
Registriert: 05.03.2009 23:07
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von johndoe824834 »

Liesel Weppen hat geschrieben:Oder mit anderen Worten: Die Technik, wie wir aktuell CPUs bauen, ist physikalisch schon ziemlich am Ende. Die Taktrate lässt sich kaum mehr steigern und die Chipgröße (und damit die Anzahl der Transistoren) lässt sich nichtmehr allzusehr verringern. Deswegen geht man ja in Richtung Multicore (die Begrenzung gilt nur jeweils für einen Core), aber das macht die Recheneinheiten unabhängig und nicht jede Aufgabe lässt sich parallel berechnen.
Aber die Rechenleistung muss ja irgendwan höherer werden.
Was kommt als nächstes wenn das Ende erreicht ist bzw. Entwickelt sich ab diesem Punkt dann nichts mehr weiter?
CritsJumper
Beiträge: 9918
Registriert: 04.06.2014 01:08
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von CritsJumper »

ICHI- hat geschrieben:Entwickelt sich ab diesem Punkt dann nichts mehr weiter?
Du hast es erfasst.
Blupp
Beiträge: 86
Registriert: 02.12.2013 17:53
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Blupp »

Liesel Weppen hat geschrieben: Um zwei 64Bit Zahlen addieren zu können, braucht man schon 140.000 Transistoren. Und das ist noch eine optimierte Schaltung die nicht anderes ausser zwei Zahlen addieren kann. Die kann nicht Multiplizieren, die kann nicht Dividieren oder gar Potenzen berechnen.
Wenn du jetzt in einem Rutsch/Takt gar 2 solcher Zahlen gleichzeitig addieren können willst, brauchst du schon 280.000 Transistoren.
Hier hast dich verguckt. Ein Volladdierer speichert nicht ein Bit der zwei Zahlen, sondern da liegen direkt beide Zahlen an und spuckt Carry- und Summen-Bit aus. Du brauchst also für eine 64 Bit Addition 26*64 Transistoren :) . Wird so natürlich nicht gemacht, da es weit schnellere Addierer gibt, welche auch mehr Transistoren brauchen, aber bei weitem nicht 140.000. Multiplizierer haben auch viel weniger, Ein Wallace Tree z.b. wird aus Carry Save Addieren gebaut, welche aus 4 Volladdieren bestehen. das wären 26*4*(21+7+2+1+1) Transistoren. Das sind bisschen mehr als 3300. Klingt jetzt nach wenig, aber rund 70% der Transistoren laden eh im Cache und werden nicht fürs Rechnen benutzt.

Und ja, die Techniken kommen irgendwann an ihre Grenzen, früher ging man hautsächlich in die Tiefe (Takt immer mehr erhöhen). Als das aber an seine Grenzen kam, ging man eben in die Breite (bauen wir einfach mehr Recheneinheiten die gleichzeitig rechnen). Es gibt ein paar Alternativen was man noch verbessern kann. Quantencomputer sind da wohl die beste Methode ( jedoch auch die am unwahrscheinlichsten und komplizierteste von allen). Das Problem an Transistoren ist, dass das "Umschalten" des Transistors der Flaschenhals ist. Deshalb wird z.b. versucht komplett vom Strom wegzukommen und die ganzen Daten über Licht zu liefern (kein Umschalten mehr nötig). Mit dieser Methode wäre theoretisch ne Geschwindigkeitssteigerung um den Faktor 100 drin. Ist aber alles halt in den Kinderstiefeln und ehrlich gesagt, keine Ahnung ob wir das überhaupt noch erleben.
Benutzeravatar
Lumilicious
Beiträge: 4817
Registriert: 05.07.2010 05:30
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Lumilicious »

ChrisJumper hat geschrieben:
ICHI- hat geschrieben:Entwickelt sich ab diesem Punkt dann nichts mehr weiter?
Du hast es erfasst.
Wir entwickeln uns doch schon seit einer gewissen Zeit weiter. Die momentane Mikroarchitektur ist quasi jetzt schon am Ende, deshalb arbeitet man a Quantum Computing oder Spintronics anstatt Electronics wie es für momentane Transistoren genutzt wird.

Intel erwartet erste Spintronics Grafikchips in weniger als 2 Jahren. Ob das so kommt steht auf einem anderen Blatt, aber so gesehen hat Intel selbst schon angekündigt das ein Wechsel bevorsteht.
OpiDeluxe
Beiträge: 383
Registriert: 09.10.2013 11:49
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von OpiDeluxe »

Hm. Ich habe zwar keine Ahnung vom aktuellen Stand aber prophezeie mal, dass Quantumcomputer (QC) noch auf sich warten lassen werden. Hauptsächlich weil das auf einer grundlegend anderen Ebene stattfindet als klassisches "Elektronenrechnen". Strom fällt eher in die Kategorie makroskopisch d.h. der Stromfluss unterliegt nicht Quanteneffekten sondern lässt sich gut kontrollieren und damit ein eindeutiger Zustand 1 und 0 darstellen (Ja ich weiß, Tunneleffekt und so, ist aber erst unterhalb einer gewissen Leitergröße wichtig).
Spintronics scheint ja schon eingesetzt zu werden und damit massentauglich zu sein. Damit ist Progress vorhanden und nicht wie von einigen vermutet bald das Ende der Fahnenstange erreicht.
Aber Quantum Computing (Consumerbereich) wird noch ziemlich lange auf sich warten lassen. Einfach weil es nicht möglich ist dauerhaft ein Teilchen als Rechenquant zu verwenden. Das Rechenquant wird sich aufgrund seiner Quantennatur mit einer gewissen Wahrscheinlichkeit verselbstständigen. Auf Quantenebene kann man nichts wirklich "festhalten" und länger damit arbeiten. Derzeit gibt es wohl von Google und Nasa einen funktionierenden QC (http://t3n.de/news/quantencomputer-google-nasa-664051/) aber der hat eine Größe von rund 3x3x3m. Angenommen die Größe würde sich alle 2 Jahre halbieren (jährlich halte ich für ausgeschlossen aufgrund des immensen technischen Aufwandes) dann könnte ein QC in rund 20 Jahren die Größe eines heutigen Desktoprechners haben. Aber das ist jetzt mal ne ganz stumpfe, rein hypothetische Entwicklung. Vielleicht gibts ja auch nen Durchbruch (wie so oft^^)
Liesel Weppen
Beiträge: 4791
Registriert: 30.09.2014 11:40
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Liesel Weppen »

ICHI- hat geschrieben: Was kommt als nächstes wenn das Ende erreicht ist bzw. Entwickelt sich ab diesem Punkt dann nichts mehr weiter?
Dann muss ein Technologiewechsel her. So wie es auch schon ein paar mal passiert ist.
Zunächst hat der Mensch mechanische Rechenhilfen benutzt, z.B. einen Rechenschieber. Damit konnte man schon schneller Rechnen, aber war immernoch arg begrenzt.
Dann kam irgendwann der Sprung zur Elektronik, jemand kam auf die Idee Röhren (praktisch der Vorgänger des Tranistors), so zu verschalten, dass man damit rechnen konnte. Damit konnte man wesentlich mehr und schneller Rechnen als mit einem Rechenschieber. Aber Röhren waren auch beschränkt, sie waren riesig, produzierten sehr viel Abwärme, schluckten sau viel Strom und gingen öfter mal kaputt.
Für die Mondlandung hat diese Rechenkapazität nicht gereicht und wäre schon gar nicht einer Raumkapsel unterzubringen gewesen. Bis jemand den Transistor erfand und eine CPU draus gebaut hat. Das skalierte noch besser und ging noch viel schneller. Aber jetzt sind wir halt ziemlich am Ende vom Transistor angekommen. Will man immernoch mehr, braucht man eine (ganz) andere Rechentechnik. Ein Quantencomputer wäre eine Möglichkeit. Vielleicht kommt auch noch was ganz anderes? Holografische CPUs, oder sowas? Wir werden sehen und wenn nichts anderes kommt, dann müssen wir eben mit der Rechenleistung auskommen, die wir mit Transistoren erzielen können.

"Es muss ja irgendwie weitergehen" ist übrigens nur eine Einbildung der Menschen, gerade von der aktuellen Generation, weil in deren Lebenszeit halt sehr viel und sehr schnell immer weiterging. Das heisst aber nicht, dass es immer weitergehen wird. Es gibt nunmal physikalische Grenzen, die kann man nicht einfach wegdiskutieren, weil man denkt es müsse ja immer irgendwie weitergehen.
Blupp hat geschrieben: Hier hast dich verguckt.
Nö, hab ich nicht, das ist das was auf Wikipedia steht. Falsch oder unvollständig kann das aber natürlich trotzdem sein.
Benutzeravatar
King Rosi
Beiträge: 12088
Registriert: 12.02.2007 18:18
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von King Rosi »

Eirulan hat geschrieben:Kein HBM Speicher, lol...
Wird wohl nix mehr mit Pascal und HBM.
Da brauch ich die 1080ti dann auch nicht
Wird es auch nicht mehr und ich bezweifle, dass es das auch jemals wird. HBM wurde immerhin von AMD entwickelt. Entweder will letzterer einfach einen saftigen Preis für seinen HBM Speicher oder er blockiert einfach völlig.

Naja, aber ganz ehrlich, GDDR5X mit 384bit interface ist jetzt auch nicht das schlechteste. Limitieren sollte der eher weniger, hat immerhin fast die doppelte Bandbreite wie die nur 20% langsamere 1080.
CritsJumper
Beiträge: 9918
Registriert: 04.06.2014 01:08
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von CritsJumper »

Lumilicious hat geschrieben: Wir entwickeln uns doch schon seit einer gewissen Zeit weiter. Die momentane Mikroarchitektur ist quasi jetzt schon am Ende, deshalb arbeitet man a Quantum Computing oder Spintronics anstatt Electronics wie es für momentane Transistoren genutzt wird.
Jein. Es werden andere Bereiche weiterentwickelt weil man oft mit einer Strategie am Ende der Fahnenstange angekommen ist. Du sagst es ja, selber ab einem gewissen Punkt ist die Mikroarchitektur am Ende. Dann braucht man neue andere Ansätze an denen man weiter entwickelt.

Zudem ist die Sache mit dem Wort Weiterentwicklung oder Fortschritt immer so eine Sache der Perspektive, die eigentlich nur Rückblickend beschrieben werden kann. War jetzt das ganze Jahrhundert ohne Internet eine Sackgasse? Ist jede Form der Papierherstellung jetzt kein Fortschritt mehr weil es die Digital oder Internet-Technik gibt und so weiter? Ähnliches Gilt auch für Computer und Informatik. Informationsverarbeitung aus der Mathematik heraus und die Algorithmen zum Beispiel haben einen anderen Wert als die Hardware, hängen aber auch davon ab. Das merkt man bei dem Ansatz der von dir besprochenen Quantencomputer, als auch wenn man sieht wie Algorithmen die heute sehr effizient funktionieren damals noch nicht genug Rechenleistung hatten oder zu komplex waren. Die Mathematik-Seite funktioniert aber damals wie heute und sich hier die Frage zu stellen was eine Weiterentwicklung ist und was nicht ist da schon schwieriger, oft sind es andere Werkzeuge und das Thema Fortschritt auch nur eine Perspektive. Letztlich haben viele Bereiche aber eine solide Basis erreicht und dann sind sie einfach fertig. Beispiel: Addition. Gut jetzt kann man es mit Quanten beschreiben und berechnen und die ART der Informationsverarbeitung effizienter und parallel betreiben, weil sie anders gespeichert und berechnet werden. Das Konzept der Addition aus den Anfängen der Mathematik ist aber ein unumstössliches Fundament.

Darum lässt sich lediglich herum bauen und es erweitern, beispielsweise mit Imaginären Zahlen und so weiter... um eben neue Probleme die Auftauchen zu Umschiffen oder Erfassen/Beschreiben.

Um zu den Games zurück zu kommen. Wenn in 50 Jahren die Spiele direkt in deinem Gehirn stattfinden, brauchst du keine Grafikkarte mehr, wahrscheinlich auch keine Hardware. Du hast dann eine Informationsschnittstelle die das Interface direkt in deine Wahrnehmung oder die Daten direkt zu deinem Gehirn übermittelt. Dann braucht man auch kein Telefon mehr keine Messanger Software, dann haben wir einfach eine Körper interne Fähigkeit mehr oder weniger direkt per Gedankenübertragung zu kommunizieren. Über kurz oder lang steht dann noch die Entwicklung der Gaming-Hardware in den Archiven, ist aber nicht wirklich von Bedeutung. Bei genug Rechenzeit ist es halt egal ob man jetzt einen 32 oder 64 Bit Chip hatte und ob der langsamer oder schneller war. Historiker sehen das noch als Weiterentwicklung an, aber genauso wie wir heute nicht mehr die Zwischenschritte bei der Keilschrift und der Bearbeitung von Steinen kennen, wird das Wissen dann als überflüssig verloren gehen und auch nicht mehr als Weiterentwicklung gelten weil es niemanden mehr interessiert.

Wie auch immer Lesen und Schreiben in einer neuronal vernetzten Gesellschaft aussieht, die alles per Gedankenübertragung machen kann. Das Konzept der "Schrift" stirbt dann aus und war halt auch eine Sackgasse. Das einzige was interessiert ist der Zugriff auf unterschiedliche Informationsquellen oder Erinnerungs-Datenbanken. ob die jetzt nun Digital, Analog, in Stein, in Audio-Geschichten oder als Theaterstück erzählt wurden und das der Buchdruck eine Vorstufe der Speicherung auf Festplatten war interessiert dann niemanden mehr.

Ich meine wer denkt denn heute schon daran das Sprechen und eine Fremdsprache lernen, in Konkurrenz zu Datenspeicherung stehen und unterschiedliche Formate von Word-Dateien der letzten 10 Jahre.

Ah ich hab noch ein besseres Beispiel: Datenkomprimierung. Ist der Speicherplatz rar, ist es eine Weiterentwicklung eine Datei unter mehr Rechenaufwand noch 20% kleiner zu bekommen. Ist die Rechenleistung rar, ist es absolut keine Weiterentwicklung auf dessen Kosten den Festplattenplatz zu reduzieren wenn man mehrere Terabyte überflüssig zur Verfügung hat. Aber das Verhältnis was man braucht kann sich jederzeit verändern. Teilweise wird dann vieles immer wieder und wieder von neuem "erfunden".
Benutzeravatar
Leonardo Da Vinci
Beiträge: 756
Registriert: 13.11.2014 08:41
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Leonardo Da Vinci »

Lumilicious hat geschrieben: Die Karte wird nicht sonderlich viel mehr Strom verbrauchen als momentane High-End Karten. Bei ziemlich allen Karten wird 600w empfohlen.

Davon abgesehen machen hohe Auflösungen in Spielen immer noch am meisten Sinn bei kleineren Monitoren/Panels. Warum? Es eliminiert Kantenflimmern und sorgt für eine noch höhere Bildschärfe. Deshalb sehen 4k auch deutlich besser auf 27" aus, als FullHD auf 27".

Aber wem sag Ich das. Du trollst ja ohnehin nur rum. :lach:
wohl gerade mal wieder n blick in den spiegel geworfen wie?! :hammer: abgesehen davon, biete doch mal ne quelle für deine these an! ;)
p.s. und wer empfiehlt 600w, die strom-industrie?
johndoe1197293
Beiträge: 21942
Registriert: 27.05.2011 18:40
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von johndoe1197293 »

Leonardo Da Vinci hat geschrieben:
Lumilicious hat geschrieben: Die Karte wird nicht sonderlich viel mehr Strom verbrauchen als momentane High-End Karten. Bei ziemlich allen Karten wird 600w empfohlen.

Davon abgesehen machen hohe Auflösungen in Spielen immer noch am meisten Sinn bei kleineren Monitoren/Panels. Warum? Es eliminiert Kantenflimmern und sorgt für eine noch höhere Bildschärfe. Deshalb sehen 4k auch deutlich besser auf 27" aus, als FullHD auf 27".

Aber wem sag Ich das. Du trollst ja ohnehin nur rum. :lach:
wohl gerade mal wieder n blick in den spiegel geworfen wie?! abgesehen davon, biete doch mal ne quelle für deine these an! ;)
p.s. und wer empfiehlt 600w, die strom-industrie?
Du willst Quellen für die offensichtlichsten Dinge? :lol:
Benutzeravatar
Leonardo Da Vinci
Beiträge: 756
Registriert: 13.11.2014 08:41
User ist gesperrt.
Persönliche Nachricht:

Re: NVIDIA: Grafikkarte Titan X basierend auf der Pascal-Architektur angekündigt: 11 TFLOPS und 12 Milliarden Transistor

Beitrag von Leonardo Da Vinci »

CryTharsis hat geschrieben:
Leonardo Da Vinci hat geschrieben:
Lumilicious hat geschrieben: Die Karte wird nicht sonderlich viel mehr Strom verbrauchen als momentane High-End Karten. Bei ziemlich allen Karten wird 600w empfohlen.

Davon abgesehen machen hohe Auflösungen in Spielen immer noch am meisten Sinn bei kleineren Monitoren/Panels. Warum? Es eliminiert Kantenflimmern und sorgt für eine noch höhere Bildschärfe. Deshalb sehen 4k auch deutlich besser auf 27" aus, als FullHD auf 27".

Aber wem sag Ich das. Du trollst ja ohnehin nur rum. :lach:
wohl gerade mal wieder n blick in den spiegel geworfen wie?! abgesehen davon, biete doch mal ne quelle für deine these an! ;)
p.s. und wer empfiehlt 600w, die strom-industrie?
Du willst Quellen für die offensichtlichsten Dinge? :lol:
na klar, wenn ich mir diese ganzen möchtegern-besser-wisser hier so anschaue, zu denen auch du gehörst, dann würde ich gerne mal sehen, wie ihr euer halbwissen untermauert! und was ist offensichtlich, tell me! ;)