Ich hoffe der Thread-Titel war einigermaßen passend.
Folgendes Szenario:
Ein lokales Linux-Netzwerk von variabler Größe. Auf den meisten läuft eine MySQL-Datenbank. Ich führe auf den einzelnen Rechnern eine Menge verschiedener PHP- und Perl-Scripts aus. Das Problem dabei ist, dass ich das ganze nicht über Cron-Jobs regeln kann, da die Resultate des einen Scripts auf andere Scripts enorme Auswirkungen hat. Läuft bei Script A alles ok, soll auf einem anderen PC Script B ausgeführt werden, läuft etwas schief, auf einem anderen PC wieder Script C, usw.
Ich könnte natürlich wenn Script A ausgeführt wurde zb. über SSH auf dem entsprechenden remote Computer das nächste Script auführen, dabei kommt aber so wie ich das sehe eventuell ein ziemliches Chaos hinaus, außerdem hab ich dadurch auch keinen schönen überblick über die jeweiligen Rück- bzw. Ausgabewerte. Außerdem wäre das auch nicht transparent genug, wenn ich zb. zwei Computer für eine Aufgabe zur Verfügung stelle, wobei einer einfach nur zur Verfügung steht, falls der andere down ist.
Da ich ohnehin sehr intensiv mit SQL-Zugriffen arbeite, dachte ich mir, ich verwende einen Computer als Job-Control, sozusagen, von dem aus alle Aufgaben verteilt und geregelt werden. Dadurch könnte ich auch auf dem Job-Control-PC eine SQL-DB laufen lassen, die mir eine Prozess-History bzw. die Rückgabewerte der einzelnen Scripts speichert.
Meine Frage dazu ist ob jemand eine bessere Lösung für sowas weiß.
Mir geht's vor allem um die Transparent. Wenn ich fünf neue PCs mit bestimmten Aufgabenbereiche ins Netzwerk integriere, will ich dafür nicht alle anderen PCs dementsprechend umkonfigurieren müssen. Desweiteren sollte die Job-Control höchst effizent laufen.
Ich hoffe ich hab meine Sorgen einigermaßen gut erklärt. Für jede Hilfe bzw. Gedankenanregung bin ich im voraus schon dankbar.
Folgendes Szenario:
Ein lokales Linux-Netzwerk von variabler Größe. Auf den meisten läuft eine MySQL-Datenbank. Ich führe auf den einzelnen Rechnern eine Menge verschiedener PHP- und Perl-Scripts aus. Das Problem dabei ist, dass ich das ganze nicht über Cron-Jobs regeln kann, da die Resultate des einen Scripts auf andere Scripts enorme Auswirkungen hat. Läuft bei Script A alles ok, soll auf einem anderen PC Script B ausgeführt werden, läuft etwas schief, auf einem anderen PC wieder Script C, usw.
Ich könnte natürlich wenn Script A ausgeführt wurde zb. über SSH auf dem entsprechenden remote Computer das nächste Script auführen, dabei kommt aber so wie ich das sehe eventuell ein ziemliches Chaos hinaus, außerdem hab ich dadurch auch keinen schönen überblick über die jeweiligen Rück- bzw. Ausgabewerte. Außerdem wäre das auch nicht transparent genug, wenn ich zb. zwei Computer für eine Aufgabe zur Verfügung stelle, wobei einer einfach nur zur Verfügung steht, falls der andere down ist.
Da ich ohnehin sehr intensiv mit SQL-Zugriffen arbeite, dachte ich mir, ich verwende einen Computer als Job-Control, sozusagen, von dem aus alle Aufgaben verteilt und geregelt werden. Dadurch könnte ich auch auf dem Job-Control-PC eine SQL-DB laufen lassen, die mir eine Prozess-History bzw. die Rückgabewerte der einzelnen Scripts speichert.
Meine Frage dazu ist ob jemand eine bessere Lösung für sowas weiß.
Mir geht's vor allem um die Transparent. Wenn ich fünf neue PCs mit bestimmten Aufgabenbereiche ins Netzwerk integriere, will ich dafür nicht alle anderen PCs dementsprechend umkonfigurieren müssen. Desweiteren sollte die Job-Control höchst effizent laufen.
Ich hoffe ich hab meine Sorgen einigermaßen gut erklärt. Für jede Hilfe bzw. Gedankenanregung bin ich im voraus schon dankbar.