Sony: Erste Details zur Cell-Technologie

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Benutzeravatar
Max Headroom
Beiträge: 1856
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

O_o?

Beitrag von Max Headroom »

@highroller:
(..Antialiasing: Und aus Gründen der Performance wird eben darauf verzichtet. Das ist nachvollziehbar...)
ist aber nicht nachvollziehbar warum die überkonsole überhaupt so entwickelt wurde.
Das stimmt. Das ist ein dicker Kritikpunkt und kann SONY angelastet werden. Doch was wäre geschehen, wenn der Grafikchip ein komplettes Antialiasing und dreimal soviel VideoRAM gehabt hätte ? Welchen Punkt würde man sich DANN für eine Kritik rauspicken ?
Es IST Tatsache das die PS2-Spiele nahezu ohne Ausnahme auf Antialiasing verzichten, weil die CPU-Power lieber für anderes genutzt wird. Ich denke, das man damit leben kann. Letztendlich spielt man mit der Konsole, man bestaunt nicht stundenlang die \"kantigen Kanten\".
vielleicht liegts auch einfach an mir, aber kantenpixel gibts bei mir heutzutage nicht mehr und da mach ich für die ps2 keinen unterschied
Unterschied zu was ? Meinst Du \"Ausnahme\" ? (^_^).
Ich gebe dir Recht. In Sachen Kantenglättugn ist die PS2 die letze NextGen-Konsole auf Erden, nach der man greiffen sollte. Doch für spannende Spiele (z.Bsp. GTA:SA) ist das anscheinend kein Problem. Da wäre Antialiasing eher Beiwerk, weniger das Hauptaugermerk (boah, Wortspiel! ^,-).
Was interessiert mich das als normaler User woran es liegt das Microsoft die verschmelzung schneller hinkriegt ?
Weil das die Antwort auf das \"Problem: vernünftiges Media Center\" ist ?
Muss ich jetzt mit Sony nachsichtig sein weil sie kein eigenes Betriebsystem haben ?
Nein, aber dann würde ich mich schon fragen, wieso ich den Metz-Fernseher einfach nicht mit Windows-XP vernetzen kann. Wieso kann ich keine DivX-Filme von der Festplatte zum Video streamen ? Warum kann die DVB-T Box kein WMV9 abspielen ? Und warum ist es ein Problem, PCs mit SONY/Nintendo/SEGA-Spielekonsolen zu vernetzen ? Überlege mal nach...
Warum machen die nicht einfach ein eigenes Media Center um MS entgegenzusetzen, wie andere hersteller auch?
??? Hat Nintendo eine Spielekonsole mit Media Center ? Hat das DreamCast eine ? Was bleibt da sonst so übrig ?? Irgendwie kann ich dir da nicht folgen.
Sony hat doch auch andere ganz nette Programme aufm PC um ihre Geräte daran anzuschliessen, wenn ich da an meine mini DV cam denke.(..)
Der PC hat eine offene Architektur und eine Möglichkeit, die Daten der Kamera weiter zu verarbeiten und zu archivieren. Die PS2 würde da höchstens als Abspielgerät funktionieren. Man müsste auf der PS2 den Firewire-Anschluss ansprechen, den Videosream (MJPEG nehme ich mal an) möglichst in Echtzeit lesen, entpacken und anzeigen. Doch anscheinend gibt es dafür keinen Bedarf. Kann man verstehen, denn speichern oder weiterverarbeiten kann man den Stream ja schwer. Und nicht jeder hat eine HD eingebaut, auf die man locker zugreifen kann. Also muss man vom kleinstem gemeinsamen Nenner ausgehen, und der ist eben nicht lukrativ genug um solch ein Projekt zu verwirklichen. So sehe ich es.

(..Windows-OS:das hätten dutzende von Freeware-Coder ebenfalls geschafft..)
Es geht nich darum wer was am schnellsten macht oder wie einfach es ist. Es geht darum wer es als erstes optimiert und ausgereift der breiten Masse anbietet. Was glaubst du was es 95% der Home Entertainment Kunden interessiert ob ihre tolle Anwendung ach ein Freeware-Coder hätte schreiben können.
Ich wollte klarmachen, dass das Betriebssystem (!!) in der X-Box *extreme* Ähnlichkeit mit dem PC-Betriebssystem aus dem gleichem Haus hat. Und diese Ähnlichkeit ermöglicht es Micro$oft, Homebrew-Coder und kleinen Kids, ihre PC-Programme nahezu ohne grosse Probleme auch auf der X-Box laufen zu lassen. Vom Bildanzeigeprogramm, Emulator, WinAmp bis hin zum vollwertigem Mediaplayer. Somit ist auf der X-Box ein voll funktionstüchtiges Media-Center sehr einfach zu realisieren.
Die PS2 besitzt aber keine Festplatte und kein Betriebssystem i.E.S. Und somit sind Mediaplayer nicht gerade \"leicht\" zu bewerkstelligen. Der DivX-Player musste auch mit hilfe des Linux-Kits und der FFD-Sources zusammengeschustert werden.
Ihr Ziel war eine Spielekonsole mit DVD-Player Fähigkeiten. Klar, anfangs hat SONY mächtig auf die Kacke gehauen und angepriesen, die PS2 würde in Zukunft als Wohnzimmer Multimedia Maschine die Runde machen, doch das hat sich nicht so entwickelt. Dies gleiche Problem hatte Nintendo ebenfalls mehrere Male. Sie planten ein Disk-Laufwerk für das NES, doch mit schlechter Resonanz. Genauso wie ihr geplanter Satelliten-Dienst. Oder das CD-ROM für das SNES ? War wohl nichts. Die Kamera-Option damals für das N64, mit der man seine Freunde per Kamera in Mario oder gar Sim City packen sollte, ist ebenfalls im Sande verlaufen. Doch als Spielekonsole an sich hat weder Nintendo noch SONY einen Fehler begangen, die Spiele verkaufen sich wie warme Semmeln und machen Spass.
Für Heimcoder ist die PS2 aber kein gutes Ding um zuhause ein Media Center zu verwirklichen. Und es *will* auch niemand mit der PS2 seine DivX-Filme sehen, weshalb man solche Projekte wie den Player eher als Können der Programmierer ansieht und nicht als vollwertigen Mediaplayer für den Wohnzimmer. Diesen Markt hat M$ problemlos im Griff, und das auch noch in sehr guter Qualität.
es interessiert mich nicht ob microsoft mir ne gute lösung für mein home entertainment anbietet weil sie martführer sind, oder weil sie sowieso schon ein eigenes betriebsystem haben, oder ob jeder freeware coder das selbe könnte... mich interessiert nur wers mir als erstes anbietet und mir garantie drauf gibt.
Interesse ist egal ? Aber du solltest auch verstehen was *dahinter* steckt. Die PC-Programme können dank gleicher Architektur einfach an die X-Box angeglichen werden. Aber die PS2-Architektur IST eben anders, genauso wie die GameCube Architektur. Und niemand mit einer GameCube macht Nintendo Vorwürfe, sie würden einfach keine Vernetzung mit dem PC anstreben. Vielleicht, weil es einem Zelda-Spieler einfach nicht interessiert, ob der Nachbar seine MP3s neben dem PC auch mit dem Cube abspielen kann. Wenn Du eben auf Heim-Kino Athmosphäre setzen willst und eine gute Media-Center System anstrebst, dann IST die X-Box einfach die bessere Wahl. Aber das ist dann auch nicht die \"Schuld\" von SONY und Nintendo. Die Nintendo und SONY Konsolen sind einfach Spielekonsolen im erstem Sinne. Sie haben keine Schnittstelle zu Micro$oft Betriebssysteme und allerhöchstens ein Custom-Linux für kleien Coder-Experimente. Aber mehr wollen sie auch nicht sein. Jedenfalls hat sich kaum jemand für die (kommerziellen) Multimedia-Player interessiert, die wollen höchstens mit einer Kamera EyeToy spielen.

-=MAX HEADROOM=- - Der Virus der Gesellschaft
Benutzeravatar
Max Headroom
Beiträge: 1856
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

;)

Beitrag von Max Headroom »

@shaokahn6:
Ach und uebrigens, wusstet ihr, dass die PS3 keinen Grafik Chip mehr haben wird. Cell ist neamlich ein eigensteandiger Chip, der auch die Grafik Verarbeitung uebernimmt. Wenn z.B Fehler in der Grafik sind, dann wird Cell das Problem selbststeandig beheben.
Erstens weiss ich nicht wie die PS3 aufgebaut wird, da noch niemand mit Daten rausrücken wollte. Somit ist alles immer noch Spekulation pur !
Zweitens, selbst wenn der CELL die GPU ablösen sollte, was ich extreeeeeeem bezweifle, wird sie seltenst Grafikfehler erkennen können. Sie ist kein menschliches Gehirn das Clipping, Flackern & Co. als unangenehm empfindet, sondern sie müsste sich an Algorythmen halten, die neben sehr viel CPU-Power auch noch das menschliche Empfindungsvermögen nachmachen müsste. Ergo ist dies wohl kaum realistisch.
Drittens bietet eine eigene GPU, abgekoppelt von der CPU, *wesentlich* mehr optimierte Schaltkreise als sie in einer CPU ermöglicht werden kann. Denn der Datentransfer und deren Verarbeitung in einer CPU unterscheidet sich von der einer GPU teilw. ziemlich stark. Ich denke, der CELL kann die GPU unterstützen, aber nicht ablösen. Selbst mit einem Pentium 4 und 4 GHz unter der Haube wird wohl niemand auf Hardware-Unterstützung bei einem PC-Spiel verzichten und die CPU das berechnen der Grafik übernehmen lassen. So extrem wird wohl keiner sein und auf CoPros verzichten, weder Nintendo noch SONY oder M$.
So unglaubliche Performance, die einer \"AI\", einer kuenstlichen Intelligenz nahe kommt.
LOL... Performance ist alles andere als eine AI ! Selbst mit einem Cluster mit 20.000 Prozessoren und 2000 Terahertz ist und bleibt der PC strohdoof. Auch wenn man 1 Million CELLs zusammenschliessen würde, dieser Mega-PC wäre niemals imstande mir eine Tasse Kakao zu machen (^_^).

Der CELL hat verdammt gute Möglichkeiten, DIE Prozessorarchitektur der Zukunft zu werden, gleichzusetzen mit der Multicore-Technik der grossen anderen Chipschmieden AMD und Intel. Doch *noch* ist absolut gar nichts entschieden, denn weder habe ich hier einen CELL-Computer, der mir die DivX-Codierung in wahnsinniger Geschwindigkeit abnimmt, noch spiele ich eine Runde Capture The Flag mit Halo 4 auf der X-Box 2 und fluche über die geklaute Fahne.
1. Die Online Faehigkeit der Konsole soll noch weiter ausgebaut werden. Es soll zu einem einzigartigen Erlebnis werden. Ich denke, das wird M$ auch schaffen.
Das denke ich ebenfalls. Sie haben *jetzt* schon ihre Weichen gesetzt und eine Basis geschaffen, die sie mit der X-Box 2 sicherlich festigen werden.
2. Die XBOX 2 soll frueher an den Start gehen als alle anderen Konsolen. Damit will M$ den Zeitbonus fuer sich gewinnen und als erste Konsole die XBOX 2 an den Start bringen.
Die DreamCast kam ebenfalls früher raus, geholfen hat es leider nicht. Als die PS2 rauskam, nahm sie die Führungsposition - trotz Designmängel. Die DreamCast war die erste Online-NextGen Konsole, doch kaum jemand hat dies auch ernsthaft als Kaufargument genommen.
Doch alleine durch diesen First-Player Bonus Micro$ofts wird das wohl die Online-Basis gewaltig stärken. Da wird SONY wohl oder übel den kürzeren ziehen. Aber das macht den Single-Player Zocker kaum was aus. Der Ärger beginnt erst, wenn es um mehr als nur Split-Screen geht.

@saxxon.de:
Die ganz grosse Leistung soll sich schliesslich durch die Vernetzung dieser Chips ergeben.
Die *ganz* grosse Leistung, das stimmt. Aber die Revolution findet schon im einzelnem Chip statt.
Soll heissen: Wirkliche Spielepower sollte sich nur dann ergeben, wenn Sony eine Möglichkeit findet, dass die PS3s von anderen Onlineusern mein Game berechnen.
Hä ? und wie kommst Du darauf ? Anfangs wurde so spekuliert, doch diese Technik konnte wohl zu keinem brauchbaren Ergebnis führen. Denn der grossteil der Japaner hat kein 24-Stunden Breitband Anschluss und kann so \"nebenbei\" seine Konsole online lassen um Gran Turismo 6 für den Nachbarn zu rendern. Nein, da hast Du was falsch verstanden. Der Chip an sich KANN sich intern aufteilen. Er besitzt nicht mehr EINE Pipeline-Architektur für Instruktionen, die der Chip dann brav nacheinander ausführt, er kann gesplittet arbeiten und z.Bsp. 15 Prozent des Chips völlig unabhängig vom Rest mit *eigener* Pipeline und eigenem Datentransfer abzwacken um z.Bsp. die AI, die Kollisionsberechnung und IO zu berechnen. 40 weitere Prozent könnten dann z.Bsp. die Grafikeffekte auf den Screen zaubern und der Rest arbeitet einfach nicht mehr. Der Programmierer muss nur darauf achten, das sein Code auch aufteilbar ist. Der Chip bemerkt dies und wird sich soweit selbst aufteilen, das diese Aufgaben parallel arbeiten und nicht mehr wie in heutigen Rechnern in der Pipeline auf die Abarbeitung warten. Der Chip kann wesentlich besser ausgenutzt werden. So stelle ich mir die technischen Specs z.Zt. vor. Und dies ist einfach auch die bessere Technologie im gegensatz zur bekannten Prozessortechnik.
Das diese Aufsplittung auf im Netz funktioniert und ganze Rechnerfarmen sich ihre Arbeit dynamisch untereinander aufteilen lassen können, ist ein weiterer Pluspunkt, aber sicherlich nicht der Hauptkern der CELL Technologie.

-=MAX HEADROOM=- - Der Virus der Gesellschaft
johndoe-freename-66899
Beiträge: 30
Registriert: 05.05.2004 10:56
Persönliche Nachricht:

Beitrag von johndoe-freename-66899 »

haha das könnte über Tage gehn. ich möchte kurz an meine schlüsselaussagen erinnern und das thema bei seite legen.

die PS3 wird mir für meinen geschmack wieder zu sehr gehyped, was ich okay finde da es ein teil von marketing ist, aber selber nicht drauf einsteige.
um diese denkensweise zu verdeutlichen wollte ich an den PS2 Hype erinnern und daran was dabei rauskam. da gabs nähmlich ähnliche geschichten wie \"power wie ne AI\" (übrigens danke für den lacher, so früh am morgen).

und die 2. war zum thema verschmelzung der medienwelten und aus welchen gründen auch immer, MS XBox bietet da mehr an wie jede andere konsole und auch die XBox2 wird in diesem sektor mehr anbieten, welchen gamer das letztendlich interessiert bleibt offen, mich auf jeden :)

(ach und nebenbei, sorry wegen gross- / kleinschreibung, bin zu faul meine kleinen finger auf die shift tasten zu bewegen)
johndoe-freename-42413
Beiträge: 524
Registriert: 20.03.2003 23:18
Persönliche Nachricht:

Beitrag von johndoe-freename-42413 »

um noch meinem vorredner anzumerken:

die xbox2 wird ebenso gehypt. was solls man, heutzutage wird doch einfach alles nur noch gehypt ohne ende. ich kann das wort \"hype\" einfach nicht mehr hören! könnt ihr das nicht einfach mal weg lassen? ist ja lägherlich

ps: ich finde sony geht da den besseren weg als ms mit der neuen xbox. ich meine wer schon drei verschieden geräte anbieten muss um seine kunden zu frieden zu stellen...
Benutzeravatar
saxxon.de
Beiträge: 3715
Registriert: 29.03.2004 18:43
Persönliche Nachricht:

Beitrag von saxxon.de »

Selbst mit einem Pentium 4 und 4 GHz unter der Haube wird wohl niemand auf Hardware-Unterstützung bei einem PC-Spiel verzichten und die CPU das berechnen der Grafik übernehmen lassen. So extrem wird wohl keiner sein und auf CoPros verzichten, weder Nintendo noch SONY oder M$
Ich stimme dir im allgemeinen absolut zu, fühle mich aber hier veranlasst, dich zu verbessern: eine Konsole mit nur einem Hauptprozessor und ohne GPU gibt es bereits: das N64.
Es hat lediglich einen Haupt- und einen Co-Prozessor, Grafik, Sound (Der Soudnchip fürs SNES war von Sony und warum im N64 keiner ist, kann sich jeder denken..), Ki, das ganze Spiel wurden allein vom Hauptprozessor verarbeitet. Deswegen haben Spiele wie Zelda mit vergleichsweise hohen Grafikanforderungen auch einen qualitativ schlechteren Sound als z.b. Star Wars: Rogue Squadron. Und deswegen gab es im Mehrspielermodus nirgends Musik.
Das war beim N64 in technischer Hinsicht der Hauptkritikpunkt.

Wie gesagt: ansonsten Stimme ich dir voll zu, aber ich nehme an, dich interessiert dieses Detail trotzdem ;)
Benutzeravatar
saxxon.de
Beiträge: 3715
Registriert: 29.03.2004 18:43
Persönliche Nachricht:

Beitrag von saxxon.de »

Um auf Dein Zitat wegen der Online-Vernetzung einzugehen: Offenbar war ich da nicht auf dem neuesten Stand. Dass diese Idee verworfen wurden, war mir neu, ebenso die Details über die Arbeitsweise des Chips.

Sicherlich ist es eine kleine Innovation, das hatte ich auch nirgendwo abgestritten, dennoch war meine Aussage auf die Leistung des Chips bezogen, die hier einige erwarten.

Dennoch bedeutet die Aufteilung des Chips nicht, dass er wirklich eine überragende Leistung bringt. Es ist schliesslich immernoch ein Chip. Ein Stück Silizium, das an Leiterbahnen auf einer Platine sitzt, ein Zahlensystem verwendet, das nur 2 Zustände kennt und eine Taktzahl hat, mit dem es das verarbeitet.
Solange sich das nicht ändert, findet keine Revolution statt und das erwarten hier scheinbar einige. Evolution sicherlich, Revolution sicherlich nicht. Das wollte ich sagen.
johndoe-freename-75285
Beiträge: 1
Registriert: 02.12.2004 21:28
Persönliche Nachricht:

Wow

Beitrag von johndoe-freename-75285 »


Ich freue mich total auf die PS3!
Da kann die dumme XBox2 und der komische Nintendo Revolution einpacken!
PS3 RULES!
Benutzeravatar
Max Headroom
Beiträge: 1856
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Neue Chips braucht das Land

Beitrag von Max Headroom »

@saxxon.de:
Dass diese Idee verworfen wurden, war mir neu, ebenso die Details über die Arbeitsweise des Chips.
Verworfen ist da ja an sich nichts öffentlich. Aber es wurde ja auch nie öffentlich bekanntgegeben, das die PS3 ihre Kraft \"nur\" aus der Online-Vernetzung bezieht. WIE der anscheinend Chip arbeitet, kann man sich an den Patenten und Spec-Blätter zusammenreimen. Das endgültige Produkt werden wir ja noch bestaunen. Aber anscheinend ist die Idee hinter dem CELL so gut, dass sie gleich für eine der nächsten Generationen der PC-Architektur in Erwähnung gezogen wird.
Dennoch bedeutet die Aufteilung des Chips nicht, dass er wirklich eine überragende Leistung bringt.
Wenn Du die Technik hinter den heutigen Chips ansiehst, wie DIE ihre Daten verarbeiten und welchen Weg die Daten vom Speicher bis hin zur Pipeline und den einzelnen Rechenbereichen gehen, wirst Du sehr schnell feststellen, dass die CPU seltenst zu 100% ausgenutzt wird. Irgendwo ist und bleibt da immer was übrig, was nicht optimal genutzt wird. Jede Chipschmiede versucht, durch geschickte Pipes und Pre-Fetch Algorhytmen möglichst das beste \"Ausnutz-Ergebnis\" zu erzielen. Doch so sehr die Chips auch vom 386er zum P4-HT und Athlon64 hochgezüchtet wurden, die Methode die Daten zu nehmen, in fest verdratete Pipes zu schicken und möglichst gut die Daten verteilen, damit sie auch flott wieder rauskommen, hat sich nichts verändert.
Der P4 hat mit der HT-Technik gezeigt, wohin der Trend in Zukunft geht. Weniger in höheren Hertz-Zahlen, als in besserer Ausnutzung der CPU. Und was die Gerüchteküche da im Hause IBM/SONY da fabriziert, ist wirklich eine Revolution, denn anscheinend macht sie Schluss mit Standard-Pipelines und festen Rechenbereiche und ähnelt den (frei programmierbaren) DSP-Chips, die zwar hochflexibel sind, aber auch arschlahm.

In wiefern diese neue Technik sich in Punkto subjektiver Geschwindigkeit von der uns bekannten Technik unterscheidet, wissen wir ja noch nicht. Aber das sie sicherlich \"etwas\" mehr Power besitzen wird, das ist klar (^,-). Schliesslich soll sie ja noch einige Jahre halten und ihren Weg auch ausserhalb des PS3-Gehäuses finden.

Mal sehen... es kann auch sein, das es ein grosser Flop wird. Der Chip erreicht vielleicht gerade mal 200 MHz, kommt gerade noch gegen einen Intel Celeron an und wird irgendwann in einer elektronischen Kloschüssel ihr Dasein fristen. Wer weiss...

-=MAX HEADROOM=- - Der Virus der Gesellschaft
Benutzeravatar
Max Headroom
Beiträge: 1856
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

N64 specs...

Beitrag von Max Headroom »

@saxxon.de:
(..So extrem wird wohl keiner sein und auf CoPros verzichten..)
eine Konsole mit nur einem Hauptprozessor und ohne GPU gibt es bereits: das N64.
Schonmal per Google nach \"N64 graphics GPU\" gesucht ?
In contrast to the SNES, the N64 had loads of processing power, with a MIPS CPU at 93.75MHz and an \"Immersion Graphics\" GPU very capable of 24bit texture/3D rendering,(..)
CPU: 64bit R4300 @ 93.75Mhz
Graphics: 64bit GPU @ 62.5Mhz, 640x480 res, 16.8 mil. colors
Auf http://www.cyberiapc.com/vgg/nintendo_n64.htm findet man eine schönere Auflistung der Project Reality...
CPU: 64-bit R4300i RISC (93.75MHz) / 64-bit data paths, registers with 5-stage pipelining
Co-processor: 64-bit RISC (62.5MHz)
Graphics: Pixel Drawing Processor (RDP) built into co-processor
Soweit ich weiss hat der R4300 aber keine Möglichkeit, 24bit Texturen auf Polygone zu klatschen, geschweige denn von Effekten wie Fog & Co.
Dafür ist es ein RISC-Prozessor, was ihm ein Boost gegenüber Full Instruction CPUs ermöglicht. Der Co-Pro ist ein eigener Chip, eben ein Co-Prozessor, wie er zusammen mit Silicon Graphics entwickelt wurde.

Wired.com schrieb dazu:
Reality Engine Coprocessor: The heart of the N64 (and no small source of pride for Silicon Graphics), Reality is actually two independent processors: one manages texturing (texture maps, antialiasing), while the other manhandles video, audio, and polygons.
Grafik, Sound, Ki, das ganze Spiel wurden allein vom Hauptprozessor verarbeitet.
Bist Du dir da jetzt immer noch so sicher ? (^,-).

Ciao-Ciao...
-=MAX HEADROOM=- - Der Virus der Gesellschaft
analus
Beiträge: 11
Registriert: 22.11.2002 19:42
Persönliche Nachricht:

Beitrag von analus »

Wenn man etwas überlegt sollte einem ganz schnell klar werden, dass eine Online Berechnung der Daten nicht möglich ist. Wenn man die Busgeschwindigkeit u. Bandbreite eines PC Systems mit der eines heutigen Internetanschluss vergleicht sieht man sofort das sämtliche User die dann spielen oder deren Konsole berechnet was andere spielen an einer Art Backbone hängen müssten, die noch nicht erfunden ist.
Vernetzung ist in dem Sinne darauf bezogen, dass mehrere Chips in ein Gerät gebaut werden können u. sich austauschen und zusammen arbeiten können.
Benutzeravatar
Max Headroom
Beiträge: 1856
Registriert: 05.08.2002 13:11
Persönliche Nachricht:

Jep !

Beitrag von Max Headroom »

@analus:
Wenn man etwas überlegt sollte einem ganz schnell klar werden, dass eine Online Berechnung der Daten nicht möglich ist.
Das ist ja klar, k(l)ein Zweifel ! Deshalb ist die Vernetzung der Rechenleistung erstens nur für komplexe Rechenanwendungen (Rendern einer Szene, kmplx. Simulation,...) interessant, wie sie heute in Clustern zu finden ist. Für Spiele wurde dies ja schnell verworfen und wird höchstens als \"Zusammenspiel\" mehrerer Chips im selben Gehäuse zu finden sein. Habe heute gelesen, dass die X-Box Next *eine* PPC-CPU mit 3 vollwertigen Kernen besitzen wird. Whow, HT-at-its-best (^,-)
Vernetzung ist in dem Sinne darauf bezogen, dass mehrere Chips in ein Gerät gebaut werden können u. sich austauschen und zusammen arbeiten können.
Diese \"Vernetzung\" ist im Grunde schon älter. Die beiden CPUs in der SEGA-Saturn Console wären in diesem Sinne ja die ersten CELL-Prototypen der Welt gewesen ? (^_^)hehe. SEGA war eben seiner Zeit vorraus.
Aber das könnte wirklich stimmen. Womöglich bedeutet \"dynamische Kernverwaltung\" ja nichts anderes, als *mehrere CELLs* selbstständig zu verwalten. Who knows ... das wäre zwar ein guter Schritt in Multi-Prozessor Techniken, aber dennoch weit entfernt zur Multicore-CPU die der CELL ja sein soll. Ich tippe weiterhin eher auf eine Aufteilung der CPU-Leistung in vollständig eigene Bereiche, die per Datenaustausch seine Tasks automatisch synchronisiert. Bei einer Multi-CPU Programmierung muss sich der Coder bis heute immer selbst darum kümmern, wann welche CPU zu arbeiten hat und wann die Daten bereitstehen müssen. Wenn diese Arbeitsteilung die CPU abnehmen würde, und noch dazu seine \"Kraft\" in virtuelle CPUs aufteilen könnte, ohne (grossen ?) Rechenverlust, dann wäre dies *die* Revolution (Evolution?) im CPU-Gewerbe, auf die die Welt wartet. Ein Multi-Prozessor System für jedermann, schnell und günstig. Gut, anscheinend wohl nicht x86er kompatibel, doch mit genug Rechenkraft unter der Haube.

Ich gehe nun in die Küche, mache mir was zu futtern und werde weiterhin von meinem eigenen Multi-CPU System träumen... auch wenn er als Spielekonsole sein Dasein fristen müsste... (^,-)

-=MAX HEADROOM=- - Der Virus der Gesellschaft