Clear Sky Science · de

WS-SSA: Workflow-Planung in der Cloud-Computing mit dem Salp-Schwarm-Algorithmus

· Zurück zur Übersicht

Warum intelligenter digitaler Verkehr wichtig ist

Hinter jeder Online-Karte, jeder medizinischen Analyse oder jeder Entdeckung von Gravitationswellen steckt ein Netz von Computeraufgaben, die in der richtigen Reihenfolge, auf den passenden Maschinen und so schnell und kostengünstig wie möglich ausgeführt werden müssen. In der modernen Cloud-Computing-Umgebung werden diese Jobs in Tausende verknüpfter Schritte aufgeteilt, die über Rechenzentren weltweit verteilt sind. Wenn dieser digitale Verkehr schlecht gesteuert wird, müssen Forschende länger auf Ergebnisse warten und Anbieter verbrauchen mehr Strom als nötig. Dieser Beitrag stellt eine neue Methode zur Orchestrierung solcher komplexen Workflows vor, die sich von einer überraschenden Quelle inspirieren lässt: Ketten winziger Meeresbewohner namens Salpen.

Figure 1
Figure 1.

Wie große wissenschaftliche Jobs in Teile zerlegt werden

Große wissenschaftliche und geschäftliche Anwendungen laufen selten als ein einziges Programm. Stattdessen werden sie in viele kleinere Aufgaben zerlegt, die voneinander abhängen. Forschende stellen diese Struktur als gerichteten azyklischen Graphen dar: Knoten stehen für Aufgaben und Pfeile zeigen, welche Ergebnisse erzeugt sein müssen, bevor andere Aufgaben beginnen können. In einem Cloud-Rechenzentrum werden diese Aufgaben auf virtuelle Maschinen abgebildet — softwarebasierte Computer, die sich in Geschwindigkeit, Speicher und Netzkapazität unterscheiden. Die Herausforderung besteht darin zu entscheiden, welche Aufgabe auf welcher Maschine und wann ausgeführt werden soll, damit der gesamte Workflow so schnell wie möglich fertig wird und gleichzeitig Ressourcen effizient genutzt werden.

Warum es so schwer ist, den besten Plan zu finden

Die Wahl eines idealen Zeitplans für Tausende voneinander abhängiger Aufgaben über viele verschiedene Maschinen ist ein klassisches Beispiel für ein sogenanntes NP‑hartes Problem: Die Zahl möglicher Zuordnungen wächst so schnell, dass ein vollständiges Durchprobieren praktisch unmöglich ist. Deshalb setzen Cloud-Systeme auf clevere Abkürzungen, sogenannte Heuristiken und Metaheuristiken, um nach guten — wenn auch nicht garantiert perfekten — Lösungen zu suchen. Traditionelle Regeln wie First-Come-First-Served oder Round-Robin sind einfach, aber in großem Maßstab ineffizient. Fortgeschrittene Methoden, darunter genetische Algorithmen, Partikelschwarmoptimierung und Ameisenkolonie-Optimierung, suchen zwar intelligenter, können aber trotzdem in mittelmäßigen Lösungen steckenbleiben, erfordern sorgfältiges Parametertuning oder ignorieren wichtige Aufgabenabhängigkeiten.

Lernen von Salpenketten im Ozean

Die neue Methode, WS-SSA genannt, passt den Salp-Schwarm-Algorithmus an die Realität von Cloud-Workflows an. In der Natur bewegen sich Salpen in Ketten durchs Meer, mit einer Führenden an vorderster Stelle und Nachfolgern dahinter, die ihren Kurs anpassen, während sie nach Nahrung suchen. WS-SSA behandelt jeden möglichen Plan als ein Mitglied einer solchen Kette. Der bislang beste bekannte Plan übernimmt die Rolle der „Nahrung“ und lenkt die Bewegung des führenden Zeitplans, während die Nachfolger sich schrittweise in vielversprechende Richtungen bewegen. Eine zentrale Designentscheidung ist, dass jede Position in diesem künstlichen Schwarm direkt kodiert, welche virtuelle Maschine jede Aufgabe ausführt, wobei einfache ganze Zahlen verwendet werden statt kontinuierlicher Werte, die später noch übersetzt werden müssten. In Kombination mit einer sorgfältigen Reihenfolge der Aufgaben, die stets deren Abhängigkeiten respektiert, stellt dies sicher, dass jeder vom Schwarm betrachtete Kandidatenplan gültig und sofort ausführbar ist.

Den neuen Planer auf die Probe stellen

Um zu prüfen, wie gut WS-SSA funktioniert, führten die Autorinnen und Autoren umfangreiche Simulationen mit WorkflowSim durch, einem Toolkit, das reale wissenschaftliche Workflows auf der weit verbreiteten CloudSim-Umgebung nachbildet. Sie testeten fünf Referenzanwendungen aus Astronomie, Seismologie, Gravitationswellenphysik und Bioinformatik, mit Workflow-Größen von einigen Dutzend bis zu Tausend Aufgaben und Cloud-Konfigurationen von wenigen bis zu hundert virtuellen Maschinen. WS-SSA wurde mit sechs klassischen Scheduling-Regeln und drei modernen metaheuristischen Methoden verglichen, darunter der Whale-Optimization-Algorithmus, genetische Algorithmen und Partikelschwarmoptimierung. Die Hauptmetrik war die gesamte Fertigstellungszeit, also der Makespan; als eng verwandte Sekundärmetrik wurde der gesamte Energieverbrauch der virtuellen Maschinen erfasst.

Figure 2
Figure 2.

Was die Ergebnisse für Zeit und Energie bedeuten

Über diese breite Versuchsreihe hinweg lieferte WS-SSA durchgängig schnellere Zeitpläne als konkurrierende Methoden. Im Mittel verkürzte es den Makespan gegenüber traditionellen Heuristiken um etwa ein Drittel und erreichte gegenüber etablierten Metaheuristiken immer noch Verbesserungen von mehreren bis mehr als zwanzig Prozent. Da Leerlaufzeiten und verschwendete Berechnungen ebenfalls reduziert wurden, sank der Gesamtenergieverbrauch parallel — oft in ähnlichem Ausmaß — ohne dass der Algorithmus explizit für Energieeinsparung optimieren musste. Statistische Tests über 30 unabhängige Läufe bestätigten, dass diese Verbesserungen nicht zufällig waren, insbesondere bei größeren und komplexeren Workflows. Die Studie zeigt, dass eine einfache, diskrete Version der salp-inspirierten Strategie zuverlässig den enormen Raum möglicher Zeitpläne navigieren und sich an unterschiedliche Workflow-Strukturen und Maschinenkonfigurationen anpassen kann.

Schnellere Wissenschaft mit schlankeren Clouds

Alltäglich gesprochen ist WS-SSA ein intelligenterer Verkehrslotsen für die Datenautobahn, die moderne Wissenschaft und Cloud-Dienste trägt. Indem es koordiniert, wann und wo jede Aufgabe ausgeführt wird, verkürzt es die Zeit zwischen dem Start eines komplexen Jobs und dem Erhalt des Endergebnisses und senkt gleichzeitig die Energiekosten für die zugrunde liegenden Rechenzentren. Die Arbeit ändert nicht, wie Workflows selbst definiert werden; sie bietet vielmehr eine effizientere Möglichkeit, sie auf bestehenden Cloud-Plattformen auszuführen. Zukünftige Erweiterungen, die Kosten, Energie und Deadlines gleichzeitig berücksichtigen, könnten solche schwarminspirierten Scheduler zu einem wichtigen Werkzeug für grüneres und reaktionsfähigeres Rechnen machen.

Zitation: Sharawy, A.A., Sakr, R.H., Eladrosy, W. et al. WS-SSA: workflow scheduling in cloud computing using salp swarm algorithm. Sci Rep 16, 13402 (2026). https://doi.org/10.1038/s41598-026-48037-w

Schlüsselwörter: Cloud-Workflow-Planung, metaheuristische Optimierung, Salp-Schwarm-Algorithmus, wissenschaftliches Rechnen, energieeffiziente Cloud