Clear Sky Science · nl

Dynamische taakuitbesteding in voertuignetwerken met behulp van grote taalmodellen voor adaptieve beslissingen met lage latentie

· Terug naar het overzicht

Slimmere hulp voor drukke auto’s

De huidige verbonden auto’s combineren navigatie, veiligheidswaarschuwingen, sensoren en zelfs zelfrijdende functies—al deze taken vragen om snelle rekenkracht. Toch kunnen de boordcomputer en accu van één auto maar beperkt presteren, vooral in druk stadsverkeer. Dit artikel onderzoekt een nieuwe manier om die digitale werklast te delen met een kunstmatig intelligentsysteem dat lijkt op de grote taalmodellen achter moderne chatbots. Geplaatst bij wegkantunits helpt deze AI in realtime te beslissen waar elke auto zijn digitale “klusjes” naartoe moet sturen zodat ze snel en met minder energieverbruik worden afgehandeld.

Figure 1
Figuur 1.

Hoe auto’s hun digitale klusjes delen

In een modern verkeersnetwerk genereren voertuigen voortdurend kleine rekentaken: sensorgegevens analyseren, coördineren met nabije voertuigen of kaarten en verkeerspatronen raadplegen. Elke taak kan op drie manieren worden afgehandeld: de auto verwerkt het zelf, stuurt het naar een beter uitgerust voertuig, of besteedt het uit aan een wegkant- of cloudcomputer. De uitdaging is in een fractie van een seconde de beste optie te kiezen terwijl auto’s met hoge snelheid rijden en netwerkverbindingen wisselen. Traditionele methoden vertrouwen op vaste formules of trainingsschema’s die het moeilijk hebben wanneer wegen vol raken, omstandigheden snel veranderen of veel verschillende factoren tegelijk moeten worden afgewogen.

Een krachtig brein aan de weg plaatsen

De auteurs stellen voor een groot taalmodel (LLM) te plaatsen op edge-knooppunten langs de weg—eigentlich slimme dozen langs de weg die auto’s al helpen verbinden met het netwerk. In plaats van zinnen te lezen, leest dit LLM gestructureerde momentopnames van de verkeerssituatie: de snelheid, locatie, resterende batterij, beschikbare rekenkracht en draadloze signaalkwaliteit van elk voertuig, plus details over elke taak zoals urgentie en omvang. Uit deze multidimensionale inputs “redeneert” het LLM over welk voertuig of edge-knooppunt een taak moet uitvoeren, waarbij snelheid, afstand, linkstabiliteit en energiekosten samen worden beschouwd in plaats van los van elkaar. Het fungeert als een verkeersleider voor digitaal werk en stuurt elke taak naar de optie die het meest waarschijnlijk op tijd en met minimale batterijbelasting wordt voltooid.

Van eenvoudige regels naar adaptief redeneren

Om de voordelen van deze aanpak te benadrukken vergelijkt de studie het LLM-gebaseerde systeem met twee gangbare alternatieven: een eenvoudige regelgebaseerde methode die een vaste gewogen score gebruikt en geavanceerde op bomen gebaseerde machine learning-modellen (Random Forest en XGBoost). Die referentiemethoden behandelen de beslissing als een starre formule of een verzameling beslissingsbomen. Ze werken redelijk goed bij weinig voertuigen en eenvoudige omstandigheden, maar falen wanneer het verkeer dichter wordt, voertuigen sneller bewegen of veel verschillende statusindicatoren moeten worden meegewogen. Daarentegen leert het LLM tijdens training complexe relaties en kan het direct aanpassen welke factoren het het belangrijkst vindt—for example een stabielere verbinding bevoordelen wanneer voertuigen snel rijden, of batterij sparen bij netwerkcongestie.

Wat de simulaties aantonen

De auteurs testen hun kader in een gedetailleerde simulator die echte stadswegen, draadloze verbindingen en rijdende voertuigen nabootst. Ze variëren het aantal auto’s op de weg, hun snelheid en hoeveel informatie aan elk model wordt gevoerd. Over deze scenario’s heen voltooit het LLM-gebaseerde systeem meer taken succesvol, met lagere vertraging en betere energieprestaties dan zowel de deep reinforcement learning-methoden uit eerder werk als de hier geteste op bomen gebaseerde modellen. Gemiddeld verkort het de wachttijd voor taken met ongeveer 15% en verbetert het de energie-efficiëntie met meer dan 20% vergeleken met een sterke reinforcement learning-baseline, terwijl nog steeds ongeveer 97,5% van de taken wordt afgerond. Wanneer het LLM wordt afgestemd en gecomprimeerd om op een grafische processor aan de wegkant te draaien, wordt de vertraging in zijn eigen besluitvorming klein genoeg voor tijdkritische rijtoepassingen.

Figure 2
Figuur 2.

Uitdagingen aan de rand van de weg

Deze winst kent afwegingen. Grote taalmodellen vergen veel geheugen en rekenkracht, wat een zorg is voor wegkantunits die op beperkte hardware moeten draaien. Naarmate het aantal voertuigen en taken groeit, kunnen edge-knooppunten veel CPU- en geheugenbelasting ervaren. De black-box aard van zulke modellen maakt het ook moeilijk uit te leggen waarom de ene auto boven een andere werd gekozen voor een bepaalde taak. De auteurs bespreken manieren om deze problemen te verzachten, zoals het comprimeren van het model, het gebruik van lagere precisie-berekeningen en het verbeteren van hulpmiddelen die onthullen hoe het model zijn keuzes maakt.

Wat dit betekent voor toekomstige wegen

Al met al suggereert de studie dat het gebruik van LLM’s als beslis-engines in voertuignetwerken verbonden en autonome auto’s responsiever en energiebewuster kan maken, vooral in drukke, snel veranderende omstandigheden. Door het gehele wegennet te behandelen als een levend, verschuivend puzzel en over veel signalen tegelijk te redeneren, kunnen deze modellen effectiever bepalen waar elke digitale klus het beste wordt uitgevoerd dan vaste regels of oudere leermethoden. Als ingenieurs hun resource-vereisten kunnen beteugelen, kan LLM-gestuurde taakuitbesteding een sleutelbestanddeel worden van toekomstige slimme transportsystemen, waardoor het verkeer vloeiender en veiliger verloopt en tegelijk de batterijen en netwerken van voertuigen beter worden beheerd.

Bronvermelding: Trabelsi, Z., Ali, M., Qayyum, T. et al. Dynamic task offloading in vehicular networks using large language models for adaptive low latency decision making. Sci Rep 16, 9144 (2026). https://doi.org/10.1038/s41598-026-39791-y

Trefwoorden: vehiculaire edge computing, taakuitbesteding, grote taalmodellen, autonome voertuigen, netwerken met lage latentie