skee
Mitglied
Hallo,
Ich bastel gerade ein Bash-Script, welches auf knapp 2000 Server per scp zugreif, dort eine Datei abholt und entsprechend weiterverarbeitet.
Aktuell ist es so, dass die Servernamen zeilenweise in einer Datei stehen. Dort werden sie nacheinender mit einer Schleife ausgelesen und dann wird nach jeder Zeile die scp-Verbindung hergestellt.
Das Script lief jetzt noch nicht über alle Maschinen, aber ich sehe schon, dass ich pro Maschine ca 1 Sekunde brauche. Also ingesamt knapp 33 Minuten pro Durchlauf.
Ich würde die Geschwindigkeit jetzt gerne irgendwie optimieren, so dass ich das Script möglichst oft laufen lassen kann.
Das Einzige was mir so einfallen würde:
Die 2000 Servenamen auf zB 10 Dateien aufteilen und 10 Instanzen des Scriptes starten, wobei halt jede Instanz eine Datei ausliest.
Wäre das möglich und würde das dann auch was bringen?
Vielleicht fällt ja hier jemandem noch was ein. Wär für jede Hilfe dankbar...
Danke
Skee
Ich bastel gerade ein Bash-Script, welches auf knapp 2000 Server per scp zugreif, dort eine Datei abholt und entsprechend weiterverarbeitet.
Aktuell ist es so, dass die Servernamen zeilenweise in einer Datei stehen. Dort werden sie nacheinender mit einer Schleife ausgelesen und dann wird nach jeder Zeile die scp-Verbindung hergestellt.
Das Script lief jetzt noch nicht über alle Maschinen, aber ich sehe schon, dass ich pro Maschine ca 1 Sekunde brauche. Also ingesamt knapp 33 Minuten pro Durchlauf.
Ich würde die Geschwindigkeit jetzt gerne irgendwie optimieren, so dass ich das Script möglichst oft laufen lassen kann.
Das Einzige was mir so einfallen würde:
Die 2000 Servenamen auf zB 10 Dateien aufteilen und 10 Instanzen des Scriptes starten, wobei halt jede Instanz eine Datei ausliest.
Wäre das möglich und würde das dann auch was bringen?
Vielleicht fällt ja hier jemandem noch was ein. Wär für jede Hilfe dankbar...
Danke
Skee