[Lösung]
Unter Windows 7 geht alles automatisch, auf OpenSUSE, Debian und Ubuntu geht es wie weiter unten beschriben.
Mit Windows XP muss man in der Nvidia Steuerung die Geschichte anpassen.
Die Karte laeuft bei Deaktivierung weiter!
[Urspruenglicher Thread]
Ich habe hier noch eine alte 9800GT liegen. Nun lautet meine Frage, ob ich die einfach hineinstecken und bei bedarf via Linux nutzen kann. Ich kann mir naemlich vorstellen, dass das Vieh der anderen GTX460(im Windowsbetrieb dann) in die Finger beißt. Gibt es da irgendwen der schonmal die (idiotische) Idee hatte? Fuers Umtauschen waere ich zu faul und extra den alten Rechner danebenstellen... soviel Platz und Umsteckzeit habe ich nicht *g*.
Eine etwas daemliche Frage, ich weiß. Begruendung:
Ich habe eine GTX460 und möchte mit OpenGL Rendern arbeiten (sprich Blender). Da gibt es aber ein kleines "Problem"(mit der Teslaserie und den aelteren Karten gibt es das Problem nicht

Das Problem soll wie folgt gelöst werden(so nebenbei, falls wer das Problem kennt).
- http://en.wikipedia.org/wiki/GeForce_400_SeriesThe problem can be worked around with a hack by using a CUDA memory copy to access the buffer object."
Ich persönlich konnte nur was fuer Sourcecodes finden - bin aber kein Pythonexperte. So brauche ich also eine andere Lösung. Wem dazu was einfaellt(habe bereits auf allgraphics nach extra Versionen geschaut - nix)... da waere auch eine Lösung nett.
System:
Windows 7 64 bit / Ubuntu 64 bit 11.4 / Open SUSE ~11.4
AMD X4 965 @ 3,6 GHz
Gigabyte GA 880GAUD3H
8192 MB RAM
MSI Cyclone GTX460(momentan installiert) /Manli 9800GT verfuegbar