Geforce GTX 285 (welche)?
Moderatoren: Moderatoren, Redakteure
- D@rk
- Beiträge: 506
- Registriert: 24.06.2007 12:25
- Persönliche Nachricht:
@SyntaxErr0r
Ich bin 19
Elektroniker für Betriebstechnik
und hab einen realschulabschluß mit qualli
fang jz bald mein fachabi an.
Und wenn du fehler findest freu dich.
Ich hab fragen zu meinem pc und nicht
wie schreibe ich fehlerfrei in foren rein.
Hab kein goolge chrom mit rechtschrieb programm drauf.
Ich bin 19
Elektroniker für Betriebstechnik
und hab einen realschulabschluß mit qualli
fang jz bald mein fachabi an.
Und wenn du fehler findest freu dich.
Ich hab fragen zu meinem pc und nicht
wie schreibe ich fehlerfrei in foren rein.
Hab kein goolge chrom mit rechtschrieb programm drauf.
-
- Beiträge: 464
- Registriert: 02.12.2008 10:23
- Persönliche Nachricht:
- Team|WoD-derkrassemow
- Beiträge: 98
- Registriert: 10.10.2007 21:16
- Persönliche Nachricht:
- Team|WoD-derkrassemow
- Beiträge: 98
- Registriert: 10.10.2007 21:16
- Persönliche Nachricht:
- D@rk
- Beiträge: 506
- Registriert: 24.06.2007 12:25
- Persönliche Nachricht:
- King Rosi
- Beiträge: 12088
- Registriert: 12.02.2007 18:18
- Persönliche Nachricht:
- D@rk
- Beiträge: 506
- Registriert: 24.06.2007 12:25
- Persönliche Nachricht:
- Sylence
- Beiträge: 1154
- Registriert: 10.07.2007 00:02
- Persönliche Nachricht:
Ja und umgekehrt (also nVidia Karte auf AMD board)
Nochmal: Diese Vergleiche sind sinnlos! Die GTX200er Reihe ist die alte Generation von nVidia, während die HD5000er Reihe die neue Generation von ATI ist. Die 5000er müssen mit den 300ern von nVidia verglichen werden...HD5850 vs GTX285
HD5850 vs GTX295
HD5870 vs GTX285
HD5870 vs GTX295
- Team|WoD-derkrassemow
- Beiträge: 98
- Registriert: 10.10.2007 21:16
- Persönliche Nachricht:
das die 300er von nvidia die 5000er von ati absägen wird ist klar, aber zu welchem preis??? die 58XXer kann man derzeit auch net bezahlen, aber das wird schon....Sylence hat geschrieben:
Nochmal: Diese Vergleiche sind sinnlos! Die GTX200er Reihe ist die alte Generation von nVidia, während die HD5000er Reihe die neue Generation von ATI ist. Die 5000er müssen mit den 300ern von nVidia verglichen werden...
-
- Beiträge: 391
- Registriert: 12.06.2009 21:14
- Persönliche Nachricht:
Du kannst per "Hack" auf nem CF Board SLI laufen lassen, also rein theoretisch auch umgekehrt nur hat sich bisher keiner gefunden der das umgesetzt hat.florinho hat geschrieben:Also mit der 5870 od.5850 bist du bestens gerüstet, allerdings bezweifel ich das du ne 5870 zuzeit kaufen kannst. an ne 5850 kommst du wesentlich leichter ran.
kann man eig. auf nem nforce board so nur sli unterützt auch crossfire machen? (ich habs nicht vor, wills nur wissen)
Hier ein Link dazu:
http://www.hardwareluxx.de/community/sh ... p?t=655591
Das ganze geschieht deshalb nur für SLI auf CF Mainboards weil sich natürlich keiner freiwillig das schlechtere CF gegenüber SLI antun will. Deshalb ist kein wirklicher Bedarf da CF auf SLI Boards verfügbar zu machen, im Gegensatz dazu sind natürlich alle Multi GPU User dankbar wenn sie statt CF SLI nutzten können.
Du kannst natürlich auch auf einem SLI Board 1 ATI Karte laufen lassen, genauso wie auf nem CF Board ohne Probleme eine Nvidia läuft.florinho hat geschrieben:ich hab meine kl. zwischenfrage falsch gestellt.
kann man auf einem nforce board das nur sli unterstüzt auch nur eine ATI graka ohne einschränkungen laufen lassen?
Da es für 1 Karte ja den Standard der PCIe Schnittstelle gibt an die sich alle Hersteller halten müssen. Nur wenn du Multi GPU haben willst dann musst du auf das jeweilge Board setzten (ausser per Hack) da die IHVs für Multi GPU eigene Formen der Implementierung gewählt haben und es dafür auch keinen Standard gibt.
Aber mal schauen sollte Lucids Hydra Chip nicht nur Vaporware sein dann könnte Multi GPU den Kinderschuhen entwachsen. Wobei ich mir atm nicht vorstellen kann wie man die Microruckler wegbekommen will obwohl man weiter an den beschis**** AFR Verfahren festhält was die Microruckler ja bedingt. Das Problem von Multi GPU ist ja nicht die skalierung, da sind heute schon 70%-90% Leistungszuwachs Standard, sondern das man diesen Leistungszuwachs durch Microruckler teuer erkauft, so das man mit 2 Karten fast die doppelte Framerate haben muß wie mit einer um das selbe flüssige Spielgefühl zu haben. Das ganze hängt mit dem AFR Verfahren zusammen in dem jede Karte abwechselnd ein Bild rendert, nur hat man in Bild 1 natürlich nie die gleich Last wie in Bild 2 was bedingt das
Karte 1 für Bild 1 sagen wir 7ms braucht und Karte 2 für Bild 2 sagen wir 20ms braucht, daraus ergibt sich der unruhige Ablauf des Spiels.
@Dj Key:
EVGA ist ein Hardware Hersteller, bekannt vorallem durch die Classified Boards die lange Zeit die Spitze für Enthusiasten darstellten.
Hier z.b. das Classifed mit X58 Chipsatz für knappe 400€:

Aber für den Preis wird auch einiges Geboten, hier der Link:
http://geizhals.at/a489586.html
Vor kurzem hat EVGA ausserdem noch diese Physix SLI 1 PCB kombo rausgebracht, die aus einer 275GTX für die Grafik bestand und einer 9800GTX für Physix.
http://www.evga.com/products/moreInfo.a ... s%20Family
- Rokko78
- Beiträge: 636
- Registriert: 01.01.2008 09:42
- Persönliche Nachricht:
Eine Nvidia GTX295 benötigt unter Volllast max 289W.Dj Key hat geschrieben:versteh ich nicht...Rokko78 hat geschrieben:Laut Spec von PCI-Express darf eine GRAKA max. 300W verbrauchen.Dj Key hat geschrieben:ist die gtx300 im sli eigentlich zu einem 850 w netzteil kompatibel?
Egal ob es die ATI 2000er 3000er 4000er oder 5000er Serie ist oder die Pendanten von Nvidia.
Laut hersteller angaben sind die geforce aber über 300W.
mein ich gelesen zu haben.
also für mich lohnt sich die
ATI Radeon HD5870
am meisten.
Ist das korrekt
Eine ATI 5970 braucht unter Volllast max 294 W.Anschluss 1 x 6-Pin-Grafikkartenstromanschluss
Anschluss 1 x 8-Pin-Grafikkartenstromanschluss
max. Verbrauch ca. 289 Watt (bei Volllast)
Hier die Spec zu PCI Express 2.0:Anschluss 1 x 6-Pin-Grafikkartenstromanschluss
Anschluss 1 x 8-Pin-Grafikkartenstromanschluss
max. Verbrauch ca. 294 Watt (bei Volllast)
PCI Express 2.0 (manchmal auch "Generation 2" genannt) verdoppelt den "Wire Speed" der einzelnen PCIe-Lanes von 2,5 auf 5 Milliarden Transfers pro Sekunde (5 GT/s), bringt also auch das theoretische Maximum der Datentransferleistung von 250 auf 500 MByte/s pro Lane und Transferrichtung (8-Bit-10-Bit-Codierung). Grafikkarten dürfen in PCI-Express-for-Graphics-(PEG-)Steckplätzen bis zu 300 Watt Leistung verbraten, aus dem Slot selbst aber offenbar wie bisher maximal 75 Watt saugen.