Clear Sky Science · de

Dynamisches Auslagern von Aufgaben in Fahrzeugnetzwerken mithilfe großer Sprachmodelle für adaptive, latenzarme Entscheidungsfindung

· Zurück zur Übersicht

Intelligenter Beistand für beschäftigte Autos

Die vernetzten Fahrzeuge von heute koordinieren Navigation, Sicherheitswarnungen, Sensoren und sogar Fahrerassistenzfunktionen — all das erfordert schnelle Rechenleistung. Die Bordcomputer und Batterien einzelner Fahrzeuge stoßen jedoch an Grenzen, besonders im dichten Stadtverkehr. Diese Arbeit untersucht einen neuen Weg, diese digitale Arbeitslast zu verteilen, und zwar mithilfe eines künstlichen Intelligenzsystems, das großen Sprachmodellen ähnelt, wie sie hinter modernen Chatbots stehen. An Straßenrand‑Einheiten platziert, hilft diese KI in Echtzeit zu entscheiden, wohin jedes Fahrzeug seine digitalen „Aufgaben" schicken sollte, damit sie schnell und mit geringerem Energieverbrauch erledigt werden.

Figure 1
Figure 1.

Wie Autos ihre digitalen Aufgaben teilen

In einem modernen Verkehrsnetz erzeugen Fahrzeuge laufend kleine Rechenaufgaben: Sensor­daten auswerten, sich mit nahegelegenen Fahrzeugen abstimmen oder Karten‑ und Verkehrsinfos abfragen. Jede Aufgabe kann auf drei Arten bearbeitet werden: das Fahrzeug selbst, ein besser ausgerüstetes anderes Fahrzeug oder ein Straßenrand‑ bzw. Cloud‑Rechner. Die Herausforderung besteht darin, in Bruchteilen einer Sekunde die beste Option zu wählen, während sich die Fahrzeuge schnell bewegen und Netzwerkverbindungen kommen und gehen. Traditionelle Verfahren stützen sich auf feste Formeln oder Trainingsschemata, die versagen, wenn Straßen voll sind, sich die Bedingungen rasch ändern oder viele verschiedene Faktoren gleichzeitig auszubalancieren sind.

Ein leistungsfähiges Denkorgan an der Straße

Die Autoren schlagen vor, ein großes Sprachmodell (LLM) an Edge‑Knoten am Straßenrand zu platzieren — im Grunde smarte Kästen entlang der Straße, die ohnehin die Verbindung der Fahrzeuge zum Netzwerk unterstützen. Anstatt Sätze zu lesen, verarbeitet dieses LLM strukturierte Momentaufnahmen der Verkehrssituation: Geschwindigkeit, Standort, verbleibender Batteriestand, verfügbare Rechenleistung und Funkqualität jedes Fahrzeugs sowie Details zu jeder Aufgabe wie Dringlichkeit und Umfang. Aus diesen multidimensionalen Eingaben „schließt" das LLM, welches Fahrzeug oder welcher Edge‑Knoten eine bestimmte Aufgabe ausführen sollte, wobei Geschwindigkeit, Entfernung, Linkstabilität und Energiekosten zusammen und nicht einzeln betrachtet werden. Es agiert wie ein Verkehrsregler für digitale Arbeit und lenkt jede Aufgabe zur Option, die am ehesten rechtzeitig und mit minimalem Batterieverbrauch abgeschlossen wird.

Von einfachen Regeln zu adaptivem Schließen

Um die Vorteile dieses Ansatzes zu zeigen, vergleicht die Studie das LLM‑basierte System mit zwei gängigen Alternativen: einer einfachen regelbasierten Methode mit fest gewichtetem Score und fortgeschrittenen baumbasierten Modellen (Random Forest und XGBoost). Diese Baseline‑Verfahren behandeln die Entscheidung als starre Formel oder Sammlung von Entscheidungsbäumen. Unter wenigen Fahrzeugen und einfachen Bedingungen funktionieren sie ganz gut, doch sie schwächeln, wenn der Verkehr dichter wird, Fahrzeuge schneller fahren oder viele Statussignale berücksichtigt werden müssen. Demgegenüber lernt das LLM während des Trainings komplexe Zusammenhänge und kann sofort anpassen, welche Faktoren es stärker gewichtet — etwa eine stabilere Verbindung bei hohen Geschwindigkeiten oder Batteriereserven bei Netzüberlastung zu bevorzugen.

Was die Simulationen zeigen

Die Autoren testen ihr Framework in einem detaillierten Simulator, der reale Stadtstraßen, Funkverbindungen und fahrende Fahrzeuge nachbildet. Sie variieren Anzahl der Fahrzeuge, Geschwindigkeit und die Menge an Informationen, die den Modellen zugeführt werden. In diesen Szenarien schließt das LLM‑basierte System mehr Aufgaben erfolgreich ab, mit geringerer Verzögerung und besserer Energieeffizienz als sowohl die in früheren Arbeiten berichteten Deep‑Reinforcement‑Learning‑Methoden als auch die hier getesteten baumbasierten Modelle. Im Mittel reduziert es die Wartezeit für Aufgaben um etwa 15 % und verbessert die Energieeffizienz um mehr als 20 % gegenüber einer starken Reinforcement‑Learning‑Baseline, während es rund 97,5 % der Aufgaben weiterhin abschließt. Wenn das LLM für den Einsatz auf einer Grafik­einheit am Straßenrand feinabgestimmt und komprimiert wird, wird die eigene Entscheidungslatenz klein genug für zeitkritische Fahranwendungen.

Figure 2
Figure 2.

Herausforderungen am Straßenrand

Diese Vorteile haben auch Nachteile. Große Sprachmodelle benötigen viel Speicher und Rechenleistung, was für Straßenrand‑Einheiten mit begrenzter Hardware problematisch sein kann. Mit steigender Zahl von Fahrzeugen und Aufgaben können die Edge‑Knoten hohe CPU‑ und Speicherlast erfahren. Die Black‑Box‑Natur solcher Modelle erschwert außerdem die Erklärung, warum gerade ein Fahrzeug für eine bestimmte Aufgabe ausgewählt wurde. Die Autoren diskutieren Wege, diese Probleme zu mildern, etwa durch Modellkompression, niedriger präzise Arithmetik und verbesserte Werkzeuge zur Offenlegung, wie das Modell seine Entscheidungen trifft.

Was das für zukünftige Straßen bedeutet

Insgesamt deutet die Studie darauf hin, dass der Einsatz von LLMs als Entscheidungs­instanzen in Fahrzeugnetzwerken vernetzte und autonome Fahrzeuge reaktionsschneller und energiebewusster machen könnte, insbesondere unter dichtem, schnell wechselndem Verkehr. Indem das gesamte Straßensystem als lebendiges, sich veränderndes Puzzle betrachtet und viele Signale gleichzeitig durchdacht werden, können diese Modelle effektiver entscheiden, wo jede digitale Aufgabe ausgeführt werden sollte, als feste Regeln oder ältere Lernverfahren. Können Ingenieure ihren Ressourcen­bedarf in den Griff bekommen, könnte das LLM‑gestützte Auslagern von Aufgaben zu einer Schlüsselkomponente künftiger intelligenter Transportsysteme werden, die den Verkehr flüssiger und sicherer machen und gleichzeitig Batterien und Netzwerke schonen.

Zitation: Trabelsi, Z., Ali, M., Qayyum, T. et al. Dynamic task offloading in vehicular networks using large language models for adaptive low latency decision making. Sci Rep 16, 9144 (2026). https://doi.org/10.1038/s41598-026-39791-y

Schlüsselwörter: vehicular edge computing, task offloading, large language models, autonome Fahrzeuge, netzwerke mit niedriger Latenz