CUDA - ein Weg zu mehr Rechenleistung?

fips90

Mitglied
Guten Abend miteinandern,

in letzter Zeit rückt nVidias CUDA-Schnittstelle immer mehr in das Interesse der Spieler. Viel Rechenleistung für Physikspielereien wird versprochen, ein Vielfaches mehr als aktuelle CPUs. Dass die Grafikkarten dank CUDA einiges leisten können, hat nVidia schon gezeit. Auch hat ein findiges Entwicklerteam die Rechenpower gebändigt um damit Berechnungen für CRTs schneller bzw. billiger erledigen zu können.
Desweiteren wurde auch immer öfters von Raytraycing gesprochen. Der Klinch zwischen nVidia und Intel dürfte euch auch nicht entgangen sein. Was ist besser CPU oder GPU? Die Frage ist erstmal nicht so wichtig, viel interesanter ist doch, dass die GPU Aufgaben der CPU übernehmen kann.

Bei dem ganzen Gerede schwirrte mir immer eine Frage im Kopf umher.
Kann man irgendwie CUDA dazu "knechten" Renderaufgaben zu übernehmen?
Gut, so einfach ist das natürlich nicht, aber denkt Maxon nicht vieleicht über eine Implementierung nach? Ist diese Um-/Zusatzprogrammierung zu kompliziert oder aufwendig?
Grafikkarten sind nunmal wesentlich billiger als Rechencentren und bei dem Gedanken, dass 4 Grafikkarten an die Rechenleistung eines Großrechners herankommen, läuft mir das Wasser im Mund zusammen.

Was halte ihr davon? Eine Möglichkeit? Oder nur Spielerei und Advertising seitens nVidia?

Grüße
Lukas
 
Ich weiß nicht ob das eine berüchtigte halbwarheit ist, oder gänzlich falsch:

Kann man nicht bereits mit der Nvidia Quadro FX soetwas bewerkstelligen? Oder vllt ging das nur im Verbund mit einem Mac Pro oder wie der hieß?

Wenn dem so wär, wär deine Vorstellung ja nicht abwegig. Wär echt geil, wenn meine Graka mit arbeiten "darf" ^^
 
Meines Wissens nach, kann man mit einer QuadroFX nur die Editoransicht verbessern, aber z.b. nicht im Picture-Viewer rendern.
Ein MacPro-Verbund wäre ja schon wieder sowas wie ein kleines Rechencenter oder ein Cluster.
 
Das ist glaube ich nicht so ganz das was ich meinte. CUDA ist erst ab der 8XXX Serie vorhanden und erfordert nicht zwingend eine QuadroFX.
 
Gelato ist quasi die Einheit für Animating, ich meine, sie hat auch schon einige Jahre auf dem Buckel. CUDA hat genau so einige Jahre auf jenem Buckel, ist aber jetzt erst interessant geworden, als die GPU-Power um einige Faktoren stärker stieg als die der CPUs. Nun macht sich Nvidia ran, den Cluster/Supercomputingmarkt aufzumischen.

Also, ich finde CUDA höchst interessant, aber es wird wohl noch einige Zeit vergehen, bis die GPU als Coprozessor im OS angenommen wird. zB wäre es ein feiner Zug, wenn man Onbiardchipsätze mit Graka soweit ansteuert, dass die Onboard-Graka als CoProz. fungiert ( zB für die KI oder Physics ), während die eigentliche Grafikkarte für die reine Ausgabe.

mfg chmee

*Nachtrag : Gelato war ja auch nicht unbedingt für die komplette Übergabe der Berechnungen an die GPU gedacht, aber sie half beim Rendering bei gleicher Zeit bessere Bilder zu berechnen. Das ist schon etwas. Und CUDA ist letztlich auch nur ein zauberwort für eine Bibliothek, die besondere Aufgaben an die GPU auslagert. Muss ja nicht immer Grafik sein :)

*Nachtrag 2 : Gerade nochmal bei CUDA reingeschaut, sämtliche Beispiele sind eher analytischer oder wissenschaftlicher Natur. Und gerade in diesen Bereichen kann die GPU voll auftrumpfen, Faktoren von 20 bis 100x sind da angezeigt. Lediglich 1 Beispiel ( Flow/Fluid Animation ) kann Anwendung finden in 3D-Anwendungen, wobei hier auch die Berechnungen der Fluids von der GPU übernommen werden, nicht die Grafik an sich. Aber wie ich schon sagte, wir sind am Anfang.
http://www.nvidia.com/object/cuda_home.html#
 
Ich versteh sowieso nicht, warum es nicht möglich ist, die Grafikkarte mitrendern zu lassen...
Wir spielen die krassesten Spiele mit +30fps und für eines dieser Bilder würde die CPU reichliche Sekunden brauchen.
 
Äh, naja. Spiele sind vorgerendert. Sprich da steckt schon rechenleistung drin^^ Auch ist das Rechenprinzip einer modernen Graka anders. Denn diese rechnet auch vieles mit Unified Shadern, Vertex Shadern etc.

Aber wenn eine Grafikkarte mitrechnen würde, bei solchen 3D-sachen, rechnet dann nur die GPU?
 
Mag sein, dass Spielszenen anders gerendert werden, aber "vorgerendert" ist doch auch nicht alles. Z.B. bei Crysis mit dynamischen Schatten von allen Objekten, die ja auch interaktiv sind.
 
Das deine Graka bei Crysis 30FPS raushaut will ich sehn^^ Aber bezog mich ja auch auf die etwas älteren games und nicht dieses Bombergame^^
Was man auch bei fast allen Games sehen kann, ist, dass z.B. Spiegelungen absolut nicht der Umgebung entspricht. Spiele sind auch sehr Polygon arm, was ja auch nicht unbedeutend ist.
Und Schatten werden halt von den Unified Shadern, wovon es bei den aktuellen Grakas bis zu 240 oder mehr gibt, berechnet.

Egal^^ zurück zum Thema ;)
 
Zurück