Haben die "alten" Programme noch eine Chance?

Hallo,

du machst den Fehler, dass du Linux-Distributionen wie aus einem Guss betrachtest. Mag ja durchaus sein, dass hinter Ubuntu ein "Gönner" steckt, der viele Leute hauptberuflich mit der Zusammenstellung einer Distribution beschäftigen kann. Aber trotzdem bleibt es eben eine Zusammenstellung von lauter kleinen Tools, die über den Paketmanager installiert werden können. Oder glaubst du vielleicht, an den vielen kleinen Helferlein wie wicd, einem rhythmbox-Plugin oder youtube-dl arbeiten Firmen wie Novell?

Man muss ja nicht unbedingt ein zweites OpenOffice.org auf die Beine stellen, das war nie der Sinn von OpenSource und wird es auch nie sein. Es geht doch vielmehr darum, sich die kleinen Tools zu schreiben, die man selbst vermisst und diese dann für andere Leute als Gegenleistung für andere Tools zur Verfügung zu stellen.

Wir schreiben das Jahr 1791 (steinigt mich, wenns nicht genau stimmt) und schon seit Jahrhunderten backen die Menschen Brot. In der Straße von Hans-Peter Sonntag gibt es zehn Bäckereien, alle mit einem speziellen Angebot. Aber Hans-Peter Sonntag hat die Brotsorten satt. Er mag Rosinen. Also backt er sich selbst ein Brot und gibt Rosinen in den Teig - et voila! Eine neue Brotsorte entsteht, obwohl es ja ach so sinnlos ist, noch ein Brot auf den Markt zu werfen... :rolleyes:

Grüße, D.

P.S.: Irgendwelche Ähnlichkeiten mit lebenden Personen sind rein zufällig und nicht beabsichtigt. Beim Schreiben dieses Posts wurde kein Brot gebacken und auch keine Zeitreise unternommen.
 
Allgmein scheint mir dass Du das Konzept "Freie Software" gewaltig unterschaetzt. Oder vielleicht geht es Dir auch gegen Stricht, weiss ich ja nicht.

Wie gesagt, zum Teil hast Du recht dass es viele Projekte gibt die recht schnell im Sand verlaufen, aber es gibt eben auch viele Projekte bei denen dies nicht der Fall ist.

Dann schau _du_ dir mal an, wieviele von diesen tausenden Paketen in den letzten 6 Monaten aktualisiert wurden...
Ich hab jetzt keine Lust genau nachzusehen, aber ich wette dass es mindestens 10% waren bei denen sich was an der Versionsnummer getan hat, also reine Patches fuer Sicherheitsluecken und Bugs ausgenommen.
Es gibt sogar Projekte bei denen sich in diesem Zeitraum so einiges getan hat. Ein grosses Beispiel ist wohl KDE, aber auch das von Dir genannte Blender hat, dank des Peach-Projektes, wieder ordentliche Fortschritte gemacht die recht bald das Licht der Welt erblicken werden.
Auch von Inkscape gab es ein wirklich nettes Update, welches auch wieder mit neuen Funktionen daherkam.
Mit GCC geht es stetig weiter und auch die GLibC wird weiterhin entwickelt.

Wozu versuchen eine Linuxdistribution zu erstellen, die sich alle Dateien optimiert und aus dem Quellcode compiliert, wenn es Gentoo (und FreeBSD...) gibt und man dort mitarbeten könnte?
Jetzt vergleichst Du schon Gentoo mit FreeBSD, meine Herren...
Aber um auf Deine Frage, und die offensichtliche Anspielung auf EasyLFS einzugehen. Mir gefaellt Linux from Scratch, es gibt einem ein wirklich schickes System. Nur ist mir die Installation ein wenig zu Aufwaendig, denn es ist einfach sehr viel Arbeit. Entsprechend hab ich mir die Arbeit gemacht eine Automatisierung fuer die Installation zu erarbeiten.
Dass EasyLFS sich scheinbar sogar besser verbreitet als ich je gedacht hab zeigt sich mit einer Google-Suche. Persoenlich fand ich dieses Such-Ergebnis sehr interessant.

Aber mit dieser Diskussion verfehlen wir "ein wenig" den Sinn des Themas.
 
Hallo!

Wow! Eine Grundsatzdebatte über Open Source, interessant! :)

Aber noch mal zum Thema: Es kam teilweise durch, dass Software die - gehen wir einmal davon aus - vollständig auf einem Server läuft sicherer sei, wie genau ist das gemeint?
Die Sache mit den Updates und Patches ist natürlich gegeben, aber der Nachteil, dass das Lahmlegen eines einzigen Servers viele tausend User schaden könnte eben auch.

Glaubt ihr wirklich, dass Firmen irgendwelche Daten auslagern würden?
Aber es stimmt, dass die zentrale Verfügbarkeit einer Software nicht grundsätztlich mit dem Speichern der Daten dort zu tun hat.

Ich jedenfalls bin gespannt auf die Entwicklung und - wie gesagt wurde - auf die Resonanz der breiten Mehrheit un der Unternehmen die beide schließlich entscheiden werden wie es grundsätzlich weitergeht.

codeman
 
Ich denke eher dass Firmen z.B. Server lizensieren werden, die dann aber im Haus stehen und ferngewartet werden.

1x Office für alle, auf einem gescheiten Server im Keller und Updates usw. werden on-the-fly immer gleich von Microsoft eingespielt - dafür zahlt man entsprechend und bekommt Garantien für 99,... % Uptime.

Somit ist die Hardware im eigenen Haus gesichert und MS müsste eben statt den Servern im eigenen Haus die Server rund um die Welt auf dem exakt gleichen Stand halten - ähnlich wie bei Newsservern, nur vermutlich mit einer Art P2P Netz mit ordentlicher Verschlüsselung + Authentifizierung, vermutlich ähnlich wie ein BitTorrent Schwarm. Wenn sie dumm genug sind auch rein über Microsoft Server...

5 Jahre später gibt's dann vermutlich sowas mit irgendeinem Standard an den sich MS eh nicht hält auch für Linux + Co mit Reverse engineering + Open Source...

ACHTUNG: Das ist nur eine Möglichkeit wie es laufen _könnte_ ich arbeite nicht bei MS, kenne auch keinen der dort arbeitet und weiß nichts von zukünftigen Plänen, aber sowas erscheint mir recht logisch + machbar.
 
Es kam teilweise durch, dass Software die - gehen wir einmal davon aus - vollständig auf einem Server läuft sicherer sei, wie genau ist das gemeint?
Die Sache mit den Updates und Patches ist natürlich gegeben, aber der Nachteil, dass das Lahmlegen eines einzigen Servers viele tausend User schaden könnte eben auch.
Software die irgendwo bei einer Firma laeuft sollte insofern sicher(er) sein dass man davon ausgehen koennen sollte dass dort Personal sitzt das sich damit auskennt. Das Problem ist aber dass man dies nicht 100% weiss, und somit einen absolut unbekannten Faktor in seiner Gleichung hat.
Und richtig, wenn bei eben dieser Firma mal ein Problem besteht, Server- und/oder Netzwerkausfall kann dies zu Nichtverfuegbarkeit oder im schlimmsten Falle gar Datenverlust fuehren. Fuer Firmen die solche Dienste nutzen kann dies sehr sehr teuer werden.
Auch sollte die Gefahr durch Eindringlinge nicht unterschaetzt werden, denn ein solcher Dienst ist fuer Cracker allein dadurch schon sehr interessant dass sich dort "einfach" Unmengen von Daten verschiedener Leute/Firmen gestohlen werden koennen.

Glaubt ihr wirklich, dass Firmen irgendwelche Daten auslagern würden?
Einen Fall der Datenauslagerung kann ich nur befuerworten und empfehlen, und zwar die Auslagerung von Backups. Backup-Tapes im Server-Raum oder ueberhaupt im Buero zu lagern bringt nichts wenn der Laden abbrennt, dann sind auch die Tapes nur noch klebrige Masse.
Entsprechend macht die externe Lagerung von Backup-Tapes durchaus Sinn; prinzipiell ist dies ja auch Datenauslagerung, nur eben auf anderer Ebene.

Ich denke eher dass Firmen z.B. Server lizensieren werden, die dann aber im Haus stehen und ferngewartet werden.
Solche Modelle gibt es schon laenger. Dass man eben einen oder mehrere Server kauft und die Adminstration anderen Firmen ueberlaesst. Ganz klarer Fall von Outsourcing.
Auch umgekehrt gibt es das ja, root-Server. Der Server steht bei jemand anders im Rechenzentrum und man selbst uebernimmt die Administration.

1x Office für alle, auf einem gescheiten Server im Keller und Updates usw. werden on-the-fly immer gleich von Microsoft eingespielt - dafür zahlt man entsprechend und bekommt Garantien für 99,... % Uptime.
Auch dieses Modell ist nicht neu. Hier ist Thin-Client das Stichwort. Nur eben dass mit dem Update laeuft (zur Zeit noch) anders, Pull-Verfahren, und nicht wie von Dir angesprochen Push-Verfahren.
 
Ja, durch den Aufschwung von Virtualisierungsangeboten denke ich auch, dass Thin Clients sich weiter ausbreiten werden (ich wusste ja dass es das gibt, nur der Name ist mir nicht eingefallen! :) )

Problematisch dabei ist nur, dass man dafür meist auch das Betriebssystem anpassen muss, was beim weitverbreitesten System (Windows NT 5 oder mit Vista NT 6) nicht wirklich möglich ist.

Eine mögliche Lösung könnte dann z.B. ein modularer Aufbau von Windows sein, das man sich ähnlich wie eine Linuxdistribution rel. individuell zusammenstellen kann und vielleicht sogar auf die einzelnen PCs optimiert wird indem man bereits offengelegte Teile des Betriebssystems während der Installation zum PC passend kompiliert.
Wer weiß, vielleicht verlangt Microsoft auch irgendwann mal, dass z.B. Treiberquellcodes offenliegen müssen um die Zertifizierung zu bekommen.

Eine andere Möglichkeit wären eben extreme Thin Clients, die nicht mal ein "wirkliches" Betriebssystem haben und ohne Netzwerk keinen Wert haben (ist Terminal da das richtige Wort dafür?) - damit macht man sich aber stark von der Infrastruktur abhängig, und ich glaube nicht, dass man so ein Risiko eingehen sollte - auch ohne Netzwerk müsste zumindest ein rudimentäres Arbeiten möglich sein (Texte verfassen, Daten speichern etc.)
 
Ja, durch den Aufschwung von Virtualisierungsangeboten denke ich auch, dass Thin Clients sich weiter ausbreiten werden (ich wusste ja dass es das gibt, nur der Name ist mir nicht eingefallen! :) )
Ich seh im Moment nicht wo der Zusammenhang zwischen Virtualisierung und Thin-Clients liegt.

Eine andere Möglichkeit wären eben extreme Thin Clients, die nicht mal ein "wirkliches" Betriebssystem haben und ohne Netzwerk keinen Wert haben (ist Terminal da das richtige Wort dafür?) - damit macht man sich aber stark von der Infrastruktur abhängig, und ich glaube nicht, dass man so ein Risiko eingehen sollte - auch ohne Netzwerk müsste zumindest ein rudimentäres Arbeiten möglich sein (Texte verfassen, Daten speichern etc.)
Das sind im Grunde die Thin-Clients von denen ich sprach. Diese haben oft genug keine Festplatte und booten vollstaendig vom Netz.
Ob und wie sowas mit Windows moeglich ist weiss ich aber nicht.
 
Ich nehme doch an, dass diese Thin-Clients auch z.B. auf einem großen virtuellen Server laufen werden, damit man begonnene Sessions neu aufnehmen kann oder sie z.B. als Beowulf-Cluster selbst die nötigen Ressourcen mitbringen und dynamisch aufteilen (siehe Dragonfly-BSD)

Mit Programmen hat das dann aber wohl wieder weniger zu tun... Generell gehe ich aber davon aus, dass die Angebote zu Webware (Photoshop online, Google Office...) weiter zunehmen werden, sich die Unternehmen aber nicht trauen werden das auch zu nutzen - wohl aus denselben Gründen wieso Linux auf Desktops nicht weit verbreitet ist, noch weniger in Firmenumgebungen: Die Sicherheit ist einfach nicht gegeben. Ob sie jetzt gefühlt oder real nicht vorhanden ist, ist im Endeffekt egal.
 
Da bin ich ja in ein interessantes Thema hereingestolpert.

Ich denke, daß nach wie vor lokal installierte Software die Hauprolle spielen wird. In Firmennetzen (größerer Firmen) wird aber der Anteil der Software die zentral auf einem Server installiert ist wahrscheinlich weiter zunehmen, da so, mal abgesehen von den Updates, insgesamt eine leichtere Administration möglich ist. Allerdings müssen dann natürlich auch die Server und das Netzwerk entsprechend ausgelegt sein, damit ein flüssiges Arbeiten möglich ist.
Gerade bei Firmen mit einem hohen Anteil Laptops wird aber die lokale Installation weiterhin die erste Wahl sein. Dort gibt es dann meist ein recht ausgeklügeltes System zum Verteilen der Software.

Dennoch finde ich die in Mode gekommenen Webanwendungen recht interessant und denke auch das deren Anteil weiter wachsen wird. Als Vorteil dieser Anwendungen sehe ich, daß diese, vorausgesetzt sie wurden sauber programmiert, auf nahezu allen Plattformen laufen, die Java unterstützen und einen Webbrowser mitbringen, der sich an die Standards hält und Java unterstützt.
In diesem Zusammenhang ist Morfik recht interessant. Dies ist eine Entwicklungsumgebung mit der man Webanwendungen erzeugen kann. Gut ist dort, daß man in seiner gewohnten Sprache z.B. Pascal oder C programmieren kann. Die Pogramme werden dann automatisch nach Java umgesetzt.

Ich glaube, daß es letztendlich eine sinnvolle Balance zwischen serverbasierten und lokalen Anwendungen geben wird. Dies wird immer vom Einsatzfall und dem zu transferierenden Datenvolumen abhängen. Hierbei werden aber wohl die Anwendungen die wirklich im WWW laufen wohl eher die Minderheit beiben - in den Unternehmen schon aus Datenschutzgründen.
 

Neue Beiträge

Zurück