Renderzeit beschleunigen...wieder mal

R

robzombie1230

Hallo!

Ich hab die SUFU schon benutzt und bin mal hierauf gestoßen http://www.tutorials.de/forum/cinema-4d/241827-cinema-und-arbeitsspeicher.html,

kann mit dem ganzen trotzdem nicht allzuviel anfangen. Die einen sagen es bringt etwas, mehr RAM zu haben die anderen meinen nicht!

Ich weis inzwischen sehr gut, dass die Renderzeit von der Szene abhängt, wenn man für eine kleine Szene wie dieses Bad hier mit GI weniger als 1 minute braucht, braucht man mit zuätzlichem Antialiasing(unerlässlich) - welches bei mir so eingestellt war: Min/Max 1x1/4x4 MIP Stärke 50; schon mal 10 minuten. GI war auf genauigkeit 60 %.

Ich hab 1 GIG RAM, Dual Core mit je 1,8 GHz, ne onboardgrafikkarte, aber eine der ganz blöden sorte, da kannste nicht mal deal or no deal spielen(fehlermeldung: Konnte keine Grafikkarte mit DirectX oder Direct3D-Unterstützung finden - voll der Müll halt) und eine SATA Festplatte mit Windows XP(32 Bit natürlich....).

Ich will einfach klipp und klarr wissen, WAS man aufrüsten muss um die Renderzeit zu verringern.

Danke!
 

Anhänge

  • Badentwurf02mit GI.jpg
    Badentwurf02mit GI.jpg
    113,6 KB · Aufrufe: 618
Zuletzt bearbeitet von einem Moderator:
10 Minuten mit GI ist doch gut - was willst Du da noch beschleunigen? Das ist nunmal eine sehr rechenintensive Beleuchtung - und damit wäre das Thema im Prinzip auch schon geklärt: Rechnen tuts die CPU. Arbeitsspeicher ist wichtig, um die Szene während des Rendervorganges auch im Speicher behalten zu können incl. der Texturen. Grafikkarte ist für die Editordarstellung zuständig. Aber letztlich stand das auch schon in all den anderen Threats.
 
Ok, danke! Bei dem von mir gezeigten Bild ist halt das Antialiasing der große Zeitfresser. Wenn ich auf 1x1/16x16 stelle ist die Zeit nicht sonderlich länger aber mit 4x4 siehts ja auch gut aus!
 
3d rendering ist eben eine komplexe Sache. Die Simulation von physikalischen Prozessen, Lichtstrahlen, Oberflächen etc. kostet CPU Power. Es gibt immer zwei Seiten: Man kann die Szene softwareseitig optimieren. Wenn man hier an die Grenzen gestoßen ist hilft nur noch aufrüsten der CPU. Aber es gibt ja jetzt die neuen 8 core Rechner von Apple ;)
 
3d rendering ist eben eine komplexe Sache. Die Simulation von physikalischen Prozessen, Lichtstrahlen, Oberflächen etc. kostet CPU Power. Es gibt immer zwei Seiten: Man kann die Szene softwareseitig optimieren. Wenn man hier an die Grenzen gestoßen ist hilft nur noch aufrüsten der CPU. Aber es gibt ja jetzt die neuen 8 core Rechner von Apple ;)

Jo, oder man fragt mal bei der Nasa an, ob die ihre Rechner vom letzten Jahr mal verkaufen... ;-)
 
Hi!
Es gibt immer zwei Seiten: Man kann die Szene softwareseitig optimieren. Wenn man hier an die Grenzen gestoßen ist hilft nur noch aufrüsten der CPU. Aber es gibt ja jetzt die neuen 8 core Rechner von Apple ;)
1. Optimieren sollte man immer, auch bei etlichen cores ... wer verschenkt schon gerne Zeit ;)
2. Auch 8 core Rechner sind lahm ... jeder Rechner ist lahm, der GI nicht in Echtzeit darstellen kann, denn: je schneller die Rechner werden, desto komplizierter werden die Render-Modelle -> die Render-Zeit ändert sich nicht ;)
hancobln hat gesagt.:
Jo, oder man fragt mal bei der Nasa an, ob die ihre Rechner vom letzten Jahr mal verkaufen... ;-)
Da würd' ich lieber mal bei Bill Gates anfragen: jetzt, wo er in Rente ist, rückt er vielleicht seinen 64 core Privatrechner raus ;)

Liebe Grüße,
Mark.
 
lol, kann mich nur kaputtlachen, wenn ich das lese echt! Schon witzig aber ja es stimmt. Je mehr man kriegt, desto mehr wird man daraus machen bzw. desto fettere Szenen stellt man zusammen usw. Des hört nie auf!
 
mal ein vorschlag:

ich hab mir cinebench runtergeladen( ftp://ftp.maxon.net/pub/benchmarks/CINEBENCHR10.zip ) und mal geschaut, wie lange mein PC braucht bzw. wieviele Punkte er kriegt, wenn er das vorgegeben Bild rendert.

Bei mir ists so: Single CPU: 1750 und ca. 8 minuten
Multi CPU: 3256 und ca. 5 minuten

wär toll wenn noch einige andere von euch ihre werte und die dazugehörigen cpus reinschreiben. bei mir ists 2 mal 1,8 GHz

Danke
 
ja der wahnsinn, des geht ja tatsächlich. hab jetzt mal einige vergleichsbilder angeschaut und seh, dass die leute ihre cpus oft übertakten, ist des net etwas "gefährlich" wenn man zufällig das falsche einstellt?
 

Neue Beiträge

Zurück