[Idee] SurfPC und SpielePC verbinden

Sukrim

Erfahrenes Mitglied
OK, erstmal sicherheitshalber:
Ja, ich weiß dass Grafik und besonders 3d Grafik mit Virtualisierung ne schwere Sache wenn nicht gar ein Ding der Unmöglichkeit ist.

So, nachdem das geklärt wäre, hier meine Idee:
Wie wäre es, einen Computer zu haben, in dem 2 Computer verbaut sind: ein schnelles System, das voll spieletauglich ist und auf dem man z.B. rendern oder Videos encodieren kann + ein Minisystem ala nVidia Ion (also einfach ein Atom System + nVidia Chipsatz) das Videos wiedergeben kann, für Officearbeiten und Internet taugt, billig ist und sparsam läuft.

Man kann doch laufende virtuelle Maschinen von einer Hardware auf die andere migrieren, wäre es da nicht möglich z.B. seinen Computer mit "2 Herzen" auszustatten und je nach Einsatzzweck das Betriebssystem von einem System auf's andere zu schubsen? Z.B. surfe ich gerade im Internet, will aber dann mein eues Computerspiel testen - ich klicke also auf die "Low --> High" Verknüpfung und der Virtualisierer schubst mir das laufende System auf die Spielekiste, sobald diese hochgefahren ist. Nach dem Spielen gehe ich den umgekehrten Weg und surfe wieder mit nur 50 Watt Verlustleistung...

Wäre sowas möglich?
Wenn ja, wie?
Wenn nein, warum nicht und was müsste noch getan werden?
Kosten (wie z.B. für teure VMWare Produkte) spielen erstmal keine Rolle, es ist sowieso nur ein Gedankenexperiment.
 

Dennis Wronka

Soulcollector
Prinzipiell eigentlich keine schlechte Idee, praktisch aber wohl eher doch.
Problem ist dass ein OS ja bekanntlich Treiber fuer die Hardware benoetigt. Da Du mit dem Gedanken spielst 2 vollkommen unterschiedliche Systeme zu verbauen wirst Du wohl recht inkompatible Hardware haben; mal ganz davon abgesehen dass Du Platzprobleme haben duerftest.
Gerade Windows ist ja bekanntlich nicht gerade flexibel wenn es um den Hardware-Aenderungen geht. Linux ist da wesentlich flexibler, jedoch hast willst Du ja auch spielen koennen, was ja unter Linux noch so eine Sache ist.

Zudem kommt hinzu dass zwar so eine Rechner-Migration in einer virtuellen Umgebung kein grosses Problem darstellt, ein wichtiger Faktor dabei ist aber dass die virtualisierten Systeme alle die gleiche Hardware praesentiert bekommen. Das hilft zwar das oben erwaehnte Problem zu beseitigen duerfte aber Probleme bereiten spaetestens wenn es an's Spielen geht, da ja meist recht generische Hardware emuliert wird.

Mit aktuellen CPUs kannst Du ja auch auf dem Desktop den Takt drosseln, sodass Strom gespart werden kann.

Was an Deiner Idee auch ein Problem bringt ist dass Platten quasi an 2 Rechnern haengen muessen. Dafuer gibt es Loesungen, aber damit hab ich mich bislang nicht befasst.

Was, ansteller Deiner Idee, technisch eher umsetzbar sein duerfte waere folgendes (ist zwar zur Zeit wahrscheinlich auch nicht machbar, aber wie gesagt, eher umsetzbar):
  • Das System hat sowohl eine relativ schwache onboard-GPU und eine leistungsfaehige PCIe-GPU. Je nach Bedarf wird umgeschaltet.
  • Es wird bei der CPU nicht nur der Takt der Kerne geaendert, sondern es werden bei geringer Last auch Kerne abgeschaltet. (Das ist glaub ich sogar schon moeglich, ich meine was in KDE dazu gesehen zu haben.)
 

Sukrim

Erfahrenes Mitglied
Onboard für 2d-Betrieb: gibt es seit längerem von nVidia (http://www.nvidia.de/page/hybrid_sli.html)
Runtertakten/undervolten bei wenig Last - kein Problem mit CrystalCPUID. Kerne abschalten können neuere CPUs vielleicht auch, mir reicht undervolten im Moment eigentlich aus - und ich hab ja auch keinen 4-Sockel Superduperserver daheim stehen.

Dennoch würde man da ein System das mit wenig Last vermutlich nur knapp 50 Watt oder weniger verbraucht dann an einem Netzteil hängen haben, das eben auch 350 Watt + leisten sollte um CPU und Grafikkarte sicher zu versorgen.
Platzprobleme sehe ich mal eher als zweitrangig an, eine 17x17cm ITX-Platine bringt man notfalls fast schon in einem Laufwerkschacht unter.

Anscheinend ist das größte Problem also wieder mal die Grafik... schon irgendwie seltsam dass nach so vielen Jahren noch immer eigentlich nur eine API in Spielen verwendet wird, OpenGL es immer noch schafft sich konsequent ins Abseits zu manövrieren und ansonsten sich in dem Sektor wenig zu tun scheint (Treibermäßig etc. gesehen).

Wenn man also ohnehin nur eher schwächere Systeme/Einheitssysteme in nem Cluster virtualisieren kann, spart man sich dann bei den teuren Lizenzen und der teuren Hardware überhaupt wirklich noch Geld? Immerhin geht doch sicher auch einiges an Leistung verloren und Word läuft doch auch auf einem 500MHz-Rechner so wie eh und je...?!
 

Dennis Wronka

Soulcollector
Platzprobleme sehe ich mal eher als zweitrangig an, eine 17x17cm ITX-Platine bringt man notfalls fast schon in einem Laufwerkschacht unter.
Du musst ja Laufwerksschaechte haben. Also ich hab nicht nachgemessen, aber ich glaube kaum dass der Schacht fuer mein DVD-Laufwerk gross genug waere eine 17cm breite Platine unterzubringen.
5.25" * 2.54 = 13.335cm. Mal noch 'nen Centimeter links und rechts kommt man auf gute 15cm. Wird eng.
Aber wie gesagt, hab nicht gemessen, nur eben die Zahlen ueberschlagen.

Anscheinend ist das größte Problem also wieder mal die Grafik... schon irgendwie seltsam dass nach so vielen Jahren noch immer eigentlich nur eine API in Spielen verwendet wird, OpenGL es immer noch schafft sich konsequent ins Abseits zu manövrieren und ansonsten sich in dem Sektor wenig zu tun scheint (Treibermäßig etc. gesehen).
Ich denke nicht dass die Leute hinter OpenGL wollen dass das so ist. Microsoft hat halt sehr erfolgreich DirectX gepusht als es drauf ankam. Vorteil ist nunmal dass es nicht nur ein Interface fuer Grafik bietet, sondern auch fuer Sound und anderen Kram, wie z.B. Eingabegeraete.
Somit ist alles unter einem Hut.
Bei OpenGL steht die Entwicklung aber nicht still, und mit Doom 3 hat id Software wohl sehr eindrucksvoll bewiesen wie gut OpenGL aussehen kann. Und Doom 4 wird sicherlich auch wieder auf OpenGL setzen.

Wenn man also ohnehin nur eher schwächere Systeme/Einheitssysteme in nem Cluster virtualisieren kann, spart man sich dann bei den teuren Lizenzen und der teuren Hardware überhaupt wirklich noch Geld?
Also Clustering und Virtualisierung sind mal zwei ganz verschiedene paar Schuhe. Obwohl man, wenn man Virtualisierung weiter auslegt faellt auch Clustering, wie z.B. das Grid computing mit in diese Sparte.
Dennoch finde ich dass man hier weniger von Virtualisierung sprechen kann. Im taeglichen Gebrauch denke ich wird wohl jeder heutzutage die System-Virtualisierung sehen.
Es ist zwar richtig dass ein Cluster nach aussen hin, zumindest fuer die ihm zugewiesene(n) Applikation(en), wie ein System erscheint, daher wohl die Einordnung zur Virtualisierung, es aber dennoch separate Einheiten sind die das Cluster bilden und diese auch weiterhin eigenstaendig funktional sind. Bei der System-/Platform-Virtualisierung (wie auch immer man es nun nennen will) ist das Gast-System direkt abhaengig von seinem Host, und ein Ausfall des Hosts bedeutet auch einen Ausfall des Gastes (auch wenn es da auch bereits Loesungen gibt, welche ich mir aber bislang nicht angeschaut habe).
Und nach Angaben des 2. Virtualisierungs-Links gehoert sogar die Partitionierung einer Festplatte zu dieser weitraeumigen Auslegung des Begriffes der Virtualisierung. Und ich denke wir sind uns einig dass wohl kaum jemand dies in diese Sparte einordnen duerfte.

Naja, aber das nur mal am Rande.

Problem auch, bei Deiner Ueberlegung in Richtung Virtualisierung, ist dass die Virtualisierung heutzutage nicht darauf ausgelegt grosse Grafikpower zu liefern. Wie so vieles stammt die Virtualisierung aus der Server-Welt, und so ein virtueller Server braucht keine 90FPS bei Doom 3. ;) Entsprechend liegt der Fokus auch nicht auf Grafikperformance, sondern viel eher auf IO-Performance, denn so ein Server soll ja in der Regel irgendwelchen Daten bereitstellen und ggf. verarbeiten.
Dass, mit zunehmender Verbreitung der Desktop-Virtualisierung, frueher oder spaeter mal jemand schaut ob man die virtuelle Grafik-Karte nicht etwas aufmotzen kann, ist absehbar.
Mit VMGL gibt es bereits einen Ansatz, aber nur fuer Systeme mit X11, und, wie der Name ja schon vermuten laesst, fuer OpenGL.
 

chmee

verstaubtes inventar
Premium-User
Tatsache ist doch auch, dass - wenn Virtualisierung genutzt wird - eine weitere Zwischenschicht im Software-Hardware-Gefüge auftaucht und somit Ressourcen gefressen werden.
Und wenn es um Effizienz geht, müsste man sich fragen, ob nicht die doppelte Menge an produzierten Platinen und Chips mehr Energie bei der Produktion frisst, als man durch diese Idee einsparen kann.

mfg chmee
 

Sukrim

Erfahrenes Mitglied
Vergiss die Ethik, Fortschritt zählt! :D

@chmee
Ich verstehe schon was du meinst, die Idee ist dann ja auch z.B. dass man z.B. sein bestehendes Netbook so auch irgendwie mit seinem Desktop-PC verbinden könnte und so mehr Synergien schafft.

@dennis
Ja, DVD-Laufwerke sind 15cm breit, daher auch das "fast" - wenn man will kann man ja auch sowas bauen: http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2009/februar/cooler_master_53-ghz-system/ - für Clustering oder Crunching sicher interessant, auch wenn das Netzteil da noch immer überdimensioniert ist... es würde sogar für 10 Systeme reichen.
Mit Virtualisierung in einem Cluster meinte ich, dass laufende VMs verschieben etc. meist eher in geclusterten Servern stattfindet, eben um Ausfallsicherheit zu haben.

Doom 3 ist btw. 4 1/2 Jahre alt und ist grafisch schon damals gegen das ein paar Monate früher erschienene Far Cry extrem abgestunken (die Engine schafft es nicht mal mehrere Monster/Spieler zugleich darzustellen, daher die Limitation im Multiplayer auf 4 Spieler und dauernde Scriptangriffe im Singleplayer von einzeln aufpoppenden Monstern - außerdem besteht das Spiel quasi aus Tunnels) also für mich eher ein Negativbeispiel wie man auf Teufel-komm-raus (haha) einen tollen Schattenwurf mit OpenGL zaubert aber sonst sehr vieles vernachlässigt.

Auf Doom 4 würde ich übrigens nicht gerade meine "Linuxhoffnungen" stützen, siehe http://www.golem.de/0708/54357.html
Hollenshead zufolge ist John Carmack mittlerweile nicht mehr so an Linux interessiert wie zuvor, auch wenn es noch einige Linux-Fans bei id Software gebe. Hier müssen Linux-Fans also noch abwarten.

Auch OpenGL hat mittlerweile nicht mehr die Top-Priorität bei id Software, Hollenshead zufolge habe Microsoft viel aus seinen Fehlern bei früheren DirectX-Versionen gelernt. Carmack sei von DirectX mittlerweile recht angetan.

Gerade wegen sowas wie Doom meinte ich ja, dass DirectX immer mehr an Boden gewinnt während OpenGL3.0 anscheinend sehr viele Leute enttäuscht und vor den Kopf gestoßen hat.

Das einzige weit verbreitete und oft gespielte halbwegs aktuelle Spiel das auch gut auf Linux läuft (wenn auch ohne nativen Client, da das laut den Entwicklern zu viel Aufwand wäre) ist meines Wissens World of Warcraft, da Blizzard schon immer Mac-Versionen herausgebracht hat, daher einen OGL-Renderpfad hat und die Linuxer dadurch profitieren.


Naja, VirtualBox hat ja zumindest schon experimentelle Funktionen, die Grafikhardware irgendwie für OGL durchzureichen, schauen wir mal, was die Zukunft bringt.
 

Dennis Wronka

Soulcollector
Doom 3 ist btw. 4 1/2 Jahre alt und ist grafisch schon damals gegen das ein paar Monate früher erschienene Far Cry extrem abgestunken (die Engine schafft es nicht mal mehrere Monster/Spieler zugleich darzustellen, daher die Limitation im Multiplayer auf 4 Spieler und dauernde Scriptangriffe im Singleplayer von einzeln aufpoppenden Monstern - außerdem besteht das Spiel quasi aus Tunnels) also für mich eher ein Negativbeispiel wie man auf Teufel-komm-raus (haha) einen tollen Schattenwurf mit OpenGL zaubert aber sonst sehr vieles vernachlässigt.
Dass Doom 3 schon etwas aelter ist ist mir bekannt. Dennoch finde ich dass es gut aussieht, auch heute noch. Klar, es gibt mittlerweile realistischere Grafik, dennoch finde ich dass Doom 3 keineswegs haesslich ist.
Persoenlich finde ich die Grafik von Doom 3 auch besser als die von Far Cry, wobei ich zugeben muss letzteres nicht viel gespielt zu haben.
Dass die Doom 3 Engine nicht in der Lage ist mehrere Gegner gleichzeitig darzustellen kann ich auch nicht unterschreiben.
Es gibt mehrere Stellen, vor allem in der Hoelle, wo man mit mehreren Gegnern gleichzeitig zu tun hat, und in der Hoelle durchaus auch mit grossen.
Okay, es ist groesstenteils ein "Tunnel-Shooter", Aussenareale sind spaerlich und recht limitiert. Und das einzige groessere Aussenareal ist nicht begehbar da man in der Mono-Rail sitzt.
Dass es aber auch anders geht, viele Charaktere die herumwuseln, und groessere, begehbare Aussenareale, zeigt aber Quake 4, welches auf, mehr oder weniger, der gleichen Engine basiert.

Auf Doom 4 würde ich übrigens nicht gerade meine "Linuxhoffnungen" stützen, siehe http://www.golem.de/0708/54357.html
Das ist natuerlich dumm. Aber Doom 3 hab ich ja auch unter Windows gespielt, aber auch nur weil der RadeonHD-Treiber unter Linux noch keinen 3D-Support fuer meine Karte bietet. Und der fglrx-Treiber von ATI will bei mir nicht, mal davon abgesehen dass ich eh lieber einen freien Treiber einsetzen will.

Naja, VirtualBox hat ja zumindest schon experimentelle Funktionen, die Grafikhardware irgendwie für OGL durchzureichen, schauen wir mal, was die Zukunft bringt.
Wie es scheint ist sowas leichter fuer OpenGL zu realisieren als fuer DirectX. Aber ich denke dass Microsoft frueher oder spaeter sicherlich entsprechende Schnittstellen bereitstellen wird um dies auch damit zu machen.
 

chmee

verstaubtes inventar
Premium-User
Wenn ich die Idee nochmal lese, gibt es nur ein Thema, dass das gewünschte Ergebnis bringen könnte, die weitere Abschaltung von Teilen des Rechners, um die Leistung zu drücken. In Verbindung mit meinem ethischen Gedanken ist nur dies sinnvoll. Sprich : Die Sparpotentiale eines modernen Rechners ausnutzen.

Umso kleiner die benötigte Leistung, desto größer der prozentualle Anteil der Blindleistung. Verbraucht Dein ITX-Board lediglich 15 Watt, so wird das Netzteil immer noch 30W aus dem Netz ziehen. 50W als Ziel bei Pseuo-Idle (Surfen etc..) mit Desktop-Prozessoren ist längst erreicht.

Kurzum :
Warum soviel Streß, wenn es schon realisierbar ist ?
Die Nachteile/Probleme der Idee überwiegen.

mfg chmee
 

Sukrim

Erfahrenes Mitglied
Dazu müsste sowas aber z.B. die Grafikkarte in Verbindung mit Onboardgrafik unterstützen und auch sonst gefält es nicht allen Komponenten die man untertakten/undervolten könnte das einfach während des laufenden Betriebs zu tun.

Es hat doch sicher einen Grund, wieso mehrere Mainboardhersteller schon ein kleines Linux auf nem Flashbaustein mitliefern, mit dem man extrem schnell bootet und surfen/eMails lesen kann - meine Idee wäre quasi nur eine Weiterentwicklung davon (und nicht auf "2 PCs in einem" beschränkt - man denke nur an den Notebook/Netbookwahn der derzeit grassiert).

Wie man mit einem halbwegs aktuellen SpielePC auf 50Watt im Desktopbetrieb kommen will möchte ich auch mal wissen bzw. welche Komponenten man da einfach so "abschalten" kann, außer die HDD im Idle abzuschalten (was ihr schadet) und die CPU zu drosseln... bitte gib doch mal ne konkrete Zusammenstellung an, die 50 Watt zieht nämlich üblicherweise schon fast ne Grafikkarte im 2d-Modus alleine.
 

chmee

verstaubtes inventar
Premium-User
Hier ein Diskussionsthread zu sparsamen Rechnerkonfigurationen :

http://www.hardwareluxx.de/community/showthread.php?t=299797

Und die Geschichte mit dem bei-2D-auf-Onboard-schalten ist doch auch schon käuflich erwerbbar. Was ich aber sagen wollte : Es gibt diese Sparmechanismen schon und mit dem richtigen Kauf und den richtigen Tools ( Undervolting bei niedriger Last und Heruntertakten bei 2D-Betrieb ) ist ein Rechner möglich, der sowohl sparsam als auch schnell sein kann. Gleichzeitig würde ich aber sagen, dass beide Extreme ( supersparsam und Superspielerechner ) kaum unter einen Hut zu kriegen sind. Außer man nimmt Deine Idee auf, welche aber mE visionär ist (absolut erlaubt) und noch zu viele Fragen aufwirft. Allein die Sache mit dem gleichzeitigen Ansprechen einer Festplatte von 2 Boards ist auf Anhieb nicht lösbar.

mfg chmee

p.s.: HDD und Idle - was ihr schadet.. : Naja, das ist eine Ausrede ohne wirkliche Konsequenzen.. Ich nehme es keiner Festplatte übel, wenn sie nach 5 Jahren den Geist aufgibt, anstatt nach 20 Jahren. Meine CPU ist auch derbe übertaktet, und wenn sie nach 3 Jahren abrauchen täte - ich würds nicht merken, denn da steht dann schon ein anderer Rechner in meinen Räumen.. Die Halbwertszeit eines Rechners ist definitiv länger als seine Nutzungsdauer.