Batman Arkham Asylum: PC-Version leicht verzögert

Hier findet ihr die entsprechenden Kommentare - inkl. Link zur News!

Moderatoren: Moderatoren, Redakteure

Oberdepp
Beiträge: 2159
Registriert: 14.04.2005 13:55
User ist gesperrt.
Persönliche Nachricht:

Re: Super...

Beitrag von Oberdepp »

freakyfiech hat geschrieben:
Asmilis hat geschrieben:
freakyfiech hat geschrieben:Von mir aus kann man dem Spiel ruhig 1 Jahr Entwicklung zumuten denn:

Ein Spiel sollte wie ein Wein sein: je länger er reift,desto besser wird er!

Es gibt nichts schlimmeres als verbugte Games die auch noch Spielzeittechnisch nichts taugen...
Wenn es erst in einem Jahr herauskaumen sollte müssten sie eine neue Grafikengine entwickeln um überhaupt noch auf dem neusten Stand zu sein. Dann käme DirectX11 hinzu usw. Spiele kann man nun wirklich nicht mit Wein vergleichen denn in der Weinherstellung gibt es keine Technologieentwicklungen die die
Qualität des Weins verändern würde.

Zum thema. 3 wochen sind ja ok und sie sind begründet, im gegensatz zu den verspätungen der meisten anderen Konsolenports.

Wie bitte? Es gab noch nie eine Technolgische Entwicklung bei Wein?
Stimmt,wir stellen und gären ihn wie vor 1000 Jahren...
Aber auch wenn du das hier versuchst zu entschärfen,was dir leider nicht ganz gelungen ist ^^ denke ich das es sowieso kein Sinn hat über Wein zu diskutieren

Denn

DirectX 11 ist bis dahin SICHER NICHT schon überall implementiert sei es bei den Entwickler oder (stell dir vor) bei den Konsumenten die sowieso diesen "Trend" von Dx10 zu 11 Karten nicht verstehen wollen oder können.

Überhaupt,diese Grafikengine wird wohl mind 1 Jahr noch überleben wir reden hier von der sehr vielseitigen Unreal-Engine
die CryEngine 3 *wäre* DX11 aber ich sehe hier keinen Grund für ein Engine Update da bis dahin wie erwähnt nur wenige die richtige Hardware dafür haben werden und die paar Details dem eher düsteren Spiel sowieso nicht wirklich zur Geltung kommen würde
Schalt mal dein Hirn ein. Ein Spiel reift definitiv nicht mit der Zeit, das ist so absurd. Irgendwann ist es bugfrei und dann ist es fertig. Ein Wein hat aber kein "Fertig-/Gold - Status" und somit ist der Wein-Vergleich eben voll daneben.

Und ja, bei PC-Spielen ist die technische Entwicklung nun mal mit ein Kriterium. Der Wein-Anbau ist in seiner Grund-Struktur noch immer die selbe wie vor hundert Jahren. Es hat sich vielleicht was beim Gähren geändert, davon profitiert der Wein selbst aber nicht, sondern der Wein-Anbauer, der durch technologischen Fortschritt Wein billiger anbauen kann und vorallem den Ertrag pro Plantage erhöhen kann. Das End-Produkt ändert sich aber nicht.
Spunior hat geschrieben:
Oberdepp hat geschrieben:Naja, im aktuellen Fall ist es halt der Physik-Hardwarebeschleuniger von Nvidia. ATI-Karten haben einfach keine.
Nur um da mal etwaige Missverständnisse aufzuklären: nVidia-Karten haben keine speziellen Physik-Chips á la PhysX. Nach der Übernahme von PhysX habe sie die Engine per CUDA so adaptiert, dass sie die Shader auf den Karten für Physikberechnungen verwenden können. Bei ATI-Karten ist das durchaus ebenfalls möglich - bei Spielen, die Havok FX unterstützen.
Nicht ganz richtig. PhysX ist eine Hardwarebeschleunigte Engine, während Havok zu großen Teil keine Hardware-Beschleunigung unterstützt.

PhysX ist also im Bereich der Performance noch immer Havok vorzuziehen. Zumindest, wenn die Physik-Spielereien ziemlich hoch werden. Bei den meisten Spielen spielt Physik aber eine untergeordnete Rolle, dass es eigentlich vollkommen egal ist, welche Physik-Engine man benutzt. PhysX kann erst wirklich auftrumpfen bei einer hohen Anzahl an Objekten und bei dem momentanen Trend, der sich Richtung UE3 verhält, ist das also überflüßig.
roman2
Beiträge: 1906
Registriert: 07.06.2008 17:00
Persönliche Nachricht:

Beitrag von roman2 »

Spunior hat geschrieben:
Oberdepp hat geschrieben:Naja, im aktuellen Fall ist es halt der Physik-Hardwarebeschleuniger von Nvidia. ATI-Karten haben einfach keine.
Nur um da mal etwaige Missverständnisse aufzuklären: nVidia-Karten haben keine speziellen Physik-Chips á la PhysX. Nach der Übernahme von PhysX habe sie die Engine per CUDA so adaptiert, dass sie die Shader auf den Karten für Physikberechnungen verwenden können. Bei ATI-Karten ist das durchaus ebenfalls möglich - bei Spielen, die Havok FX unterstützen.
Nur so btw...
"With Intel's cancellation of Havok FX, PhysX is currently the only available solution for physics hardware acceleration."
Die Quelle auf die sich der WP-Abschnitt bezieht ist zwar von 2007, aber google nach Hazok FX bringt auch nur Eintraege von 2006, und auf Havoc.com ist es auch nicht gelistet.
Benutzeravatar
Spunior
Beiträge: 1918
Registriert: 21.07.2005 21:19
Persönliche Nachricht:

Re: Super...

Beitrag von Spunior »

Oberdepp hat geschrieben:Nicht ganz richtig. PhysX ist eine Hardwarebeschleunigte Engine, während Havok zu großen Teil keine Hardware-Beschleunigung unterstützt.
1. Beide sind "hardware-beschleunigt", es sei denn Havok würde es irgendwie schaffen, von Elfen und Einhörnern angetrieben zu werden statt von irgendeinem Prozessor. ;) (Ja, ja, ich kenne den PhysX-Chip. Arguing semantics here.)

2. Es geht mir um diesen Satz: "Naja, im aktuellen Fall ist es halt der Physik-Hardwarebeschleuniger von Nvidia." nVidia hat keinen dedizierten Physikbeschleuniger wie den PhysX-Chip auf den Karten. Die nutzen die dort vorhandenen Shader jetzt halt auch für andere Berechnungen. Die erste Generation von Karten, die das ermöglichen, war schon auf dem Markt, bevor nVidia PhysX geschluckt hat.

Theoretisch könntest du auf ATI-Karten das gleiche machen - wenn es eine entsprechende Software-API geben würde. Dass nVidia sich da nicht bemüht, versteht sich wohl von selbst.
roman2 hat geschrieben:Die Quelle auf die sich der WP-Abschnitt bezieht ist zwar von 2007, aber google nach Hazok FX bringt auch nur Eintraege von 2006, und auf Havoc.com ist es auch nicht gelistet.
Ja, kann sein. Hatte das Ganze jetzt auch nicht mehr so intensiv weiterverfolgt.
Oberdepp
Beiträge: 2159
Registriert: 14.04.2005 13:55
User ist gesperrt.
Persönliche Nachricht:

Beitrag von Oberdepp »

Havoc ist eine Software-Renderer-Engine. Nur weil sie über einen Prozessor läuft, heißt es nicht, dass es eine hardwarebeschleunigte Engine ist. Das ist das Selbe wie früher bei 3D-Anwendunge: da gab es Software-Renderer und 3D-Beschleunigung.

Also NEIN: es sind nicht beide hardware-beschleunigt.
Benutzeravatar
BetaSword
Beiträge: 642
Registriert: 09.06.2005 08:53
Persönliche Nachricht:

Beitrag von BetaSword »

Da habe ich jetzt gestern die Demo gezockt, und muss sagen, dass man die Meldung wegen zu schwacher Prozessorleistung für das Spiel auch ignorieren kann(díe Demo will angeblich einen 3GHz-Prozessor).
Aber vom Spielerischen her empfand ich die Demo als äusserst überzeugend, genauso wie die Grafik, die dank der aktuellen Unreal Engine(UT3) überzeugt.

Wenn die Vollversion hält, was die Demo verspricht, wird das Spiel höchstwahrscheinlich ein Top-Seller(Ich selbst bin durch die Demo scharf auf die Vollversion).
Benutzeravatar
Spunior
Beiträge: 1918
Registriert: 21.07.2005 21:19
Persönliche Nachricht:

Beitrag von Spunior »

Oberdepp hat geschrieben:Havoc ist eine Software-Renderer-Engine. Nur weil sie über einen Prozessor läuft, heißt es nicht, dass es eine hardwarebeschleunigte Engine ist. Das ist das Selbe wie früher bei 3D-Anwendunge: da gab es Software-Renderer und 3D-Beschleunigung.

Also NEIN: es sind nicht beide hardware-beschleunigt.
Ich weiß eigentlich nicht, was du hier rumargumentierst - nVidia hat schlichtweg keinen dedizierten Physikbeschleuniger auf der Karte. Und darum ging es eigentlich.

Have fun building a strawman.
Benutzeravatar
BetaSword
Beiträge: 642
Registriert: 09.06.2005 08:53
Persönliche Nachricht:

Beitrag von BetaSword »

Oberdepp hat geschrieben:Havoc ist eine Software-Renderer-Engine. Nur weil sie über einen Prozessor läuft, heißt es nicht, dass es eine hardwarebeschleunigte Engine ist. Das ist das Selbe wie früher bei 3D-Anwendunge: da gab es Software-Renderer und 3D-Beschleunigung.

Also NEIN: es sind nicht beide hardware-beschleunigt.
Also da kann ich mal sagen JEIN!
NVIDIA hat die Havoc-Engine zur Zeit über den Treiber am Laufen, und benutzt so die Shader der Grafikkarte(Vorrausgesetzt man hat eine entsprechend gute), um die Physik zu berechnen, dadurch wurden GeForce Grafikkarten z.T. zur Physik-Hardware, ohne sie umzurüsten.
z.B. benutzt UT3 diese Physikberechnungs-Kapazitäten aus.
Wäre es noch rein Software, würde es über die CPU gehen.
Zwar sind die Grafikkarten in erster Linie keine Physik-Karten, jedoch haben sie mittlerweile diese Funktionalität durch den Treiber, und dieser lässt die Physik-Engine nunmal über die Hardware der jeweiligen Karte laufen.

Wenn man das mit der Physik vergleichen möchte, so gibt es mittlerweile mehrere Spiele, die das ganze umsetzen (z.B. Sacred2, welches dies durch einen Patch hinzubekam), ja sogar Physik-Basierte Bildschirmschoner, dei Wahlweise über Hardware- oder Softwarebeschleunigung. durchgeschaltet werden können.
Und letztendlich, so vermute ich, wird NVIDIA irgendwann schlichtweg einen extra-Prozessorkern für die Physikbeschleunigung auf seinen Karten integrieren.
Oberdepp
Beiträge: 2159
Registriert: 14.04.2005 13:55
User ist gesperrt.
Persönliche Nachricht:

Beitrag von Oberdepp »

Spunior hat geschrieben:
Oberdepp hat geschrieben:Havoc ist eine Software-Renderer-Engine. Nur weil sie über einen Prozessor läuft, heißt es nicht, dass es eine hardwarebeschleunigte Engine ist. Das ist das Selbe wie früher bei 3D-Anwendunge: da gab es Software-Renderer und 3D-Beschleunigung.

Also NEIN: es sind nicht beide hardware-beschleunigt.
Ich weiß eigentlich nicht, was du hier rumargumentierst - nVidia hat schlichtweg keinen dedizierten Physikbeschleuniger auf der Karte. Und darum ging es eigentlich.

Have fun building a strawman.
Habe ich nur mit einem Wort erwähnt, dass in den Nvidia Karten die PhysX-Chips verbaut sind? Nein, habe ich nicht. Also hör auf dich auf irgendwas aufzuhängen. Meine Aussage war lediglich, dass die Nvidia Karten durch PhysX eine Physik-Hardwarebeschleunigung unterstützen und das kannste nicht widersprechen.

Havoc unterstützt bis heute keine Hardwarebeschleungigung. Ob es dir passt oder nicht.

@BetaSword:
Naja, unter anderem entsteht dabei auch das Eine oder andere Plus für Spieler wie bei Mirror's Edge zum Beispiel. PhysX ist auf jeden Fall was Tolles und ich hoffe, dass ATI demnächst nachzieht mit einer Hardwarebeschleunigung für Physik-Enginges, ob nun eine Hauseigene oder Eingekaufte ist mir vollkommen Schnuppe. Hautpsache wir Gamer profitieren davon.
Benutzeravatar
Spunior
Beiträge: 1918
Registriert: 21.07.2005 21:19
Persönliche Nachricht:

Beitrag von Spunior »

Naja, im aktuellen Fall ist es halt der Physik-Hardwarebeschleuniger von Nvidia. ATI-Karten haben einfach keine.
Habe ich nur mit einem Wort erwähnt, dass in den Nvidia Karten die PhysX-Chips verbaut sind? Nein, habe ich nicht.
Nein, du hast nicht gesagt, dass da genau der PhysX-Chip drauf sitzt. Aber über irgendwelche mysteriösen "Physik-Hardwarebeschleuniger" geredet, die ATI-Karten nicht haben.

PhysX-Berechnungen können dank der Treiber von nVidia auf deren GPUs zurückgreifen. Wenn sie wollten, könnten sie etwas Vergleichbares für ATI-Karten entwickeln und auch deren Shader für Physikberechnungen nutzen. Warum sie das nicht machen, sollte relativ offensichtlich sein. Das ändert aber nichts daran, dass nVidia keine großartigen hardwaretechnischen Gizmos hat, die ATI nicht hat. ATIs 'Problem' ist softwareseitig.

Am Ende des Tages reden wir vielleicht sinnigerweise auch über das Gleiche.
Oberdepp
Beiträge: 2159
Registriert: 14.04.2005 13:55
User ist gesperrt.
Persönliche Nachricht:

Beitrag von Oberdepp »

Mein Gott. Lesen, verstehen und dann vielleicht antworten.

Mein Satz ist also:
Naja, im aktuellen Fall ist es halt der Physik-Hardwarebeschleuniger von Nvidia. ATI-Karten haben einfach keine.

Der Satz impliziert also, ohne was rein zu interpretieren:
Nvidia-Karten unterstützen eine Physik-Hardwarebeschleunigung, ATI-Karten nicht.

Wo ist dort nun der Fehler? Und hör auf, mir irgendwas in den Mund zu legen, was ich nie gesagt habe.
Benutzeravatar
Spunior
Beiträge: 1918
Registriert: 21.07.2005 21:19
Persönliche Nachricht:

Beitrag von Spunior »

Der Satz impliziert also, ohne was rein zu interpretieren:
Wir können den Satz ja gerne mal einen neutralen Publikum vorlegen, und ich wette, dass die Mehrheit dazu tendieren wird zu sagen, dass derzeitigen ATI-Karten ein spezielles Feature fehlt, was die schlichtweg nicht haben und auch nicht einfach reingepatcht bekommen könnten.
Naja, im aktuellen Fall ist es halt der Physik-Hardwarebeschleuniger von Nvidia. ATI-Karten haben einfach keine.
ATI-Karten unterstützen (derzeit) keine Physikbeschleunigung.
Dazwischen liegen semantisch gesehen Welten. Vor allem weil du von "Beschleunigern" (impliziert: Chips) und nicht von Beschleunigung (impliziert: Funktion) redest.
Benutzeravatar
Howdie
Beiträge: 17117
Registriert: 17.09.2005 09:15
Persönliche Nachricht:

Beitrag von Howdie »

Das neutrale Publikum wertet:

+1 für Spunior
Benutzeravatar
sizzay
Beiträge: 2406
Registriert: 28.08.2002 03:00
Persönliche Nachricht:

Beitrag von sizzay »

Das neutrale Publikum wertet:

+1 für den Forentroll
Central
Beiträge: 9
Registriert: 26.08.2002 20:27
Persönliche Nachricht:

Beitrag von Central »

Hab gerade die PC-Demo angezockt..
Was mich stört ist die Steuerung..

Mit meinem Logi Rumplepad 2 läuft die Spielfigur immer in die falsche Richtung..
Stick nach vorne - Batman läuft nach hinten..
Stick nach hinten - Batman läuft nach vorne..

Auf der Tastatur mit WASD funktionierts einwandfrei..

Kann man das irgendwie einstellen fürs Rumplepad??..
Benutzeravatar
The SPARTA
Beiträge: 2395
Registriert: 07.05.2007 13:18
Persönliche Nachricht:

Beitrag von The SPARTA »

Central hat geschrieben:Hab gerade die PC-Demo angezockt..
Was mich stört ist die Steuerung..

Mit meinem Logi Rumplepad 2 läuft die Spielfigur immer in die falsche Richtung..
Stick nach vorne - Batman läuft nach hinten..
Stick nach hinten - Batman läuft nach vorne..

Auf der Tastatur mit WASD funktionierts einwandfrei..

Kann man das irgendwie einstellen fürs Rumplepad??..
Mit ner Xbox 360 controller for Windows würde es um Meilen leichter gehen. Hab nichts von Rumplepad gehört. Probier das die zwei Tasten zu ändern, also andersrum :wink: