Clear Sky Science · pl

Dynamiczne zlecanie zadań w sieciach pojazdowych z wykorzystaniem dużych modeli językowych dla adaptacyjnego podejmowania decyzji o niskich opóźnieniach

· Powrót do spisu

Inteligentniejsze wsparcie dla zajętych samochodów

Współczesne połączone samochody jednocześnie obsługują nawigację, alerty bezpieczeństwa, sensory i funkcje autonomiczne — wszystko to wymaga szybkiego przetwarzania. Tymczasem pokładowy komputer i bateria jednego samochodu mają ograniczone możliwości, szczególnie w zatłoczonym ruchu miejskim. W artykule przedstawiono nowy sposób dzielenia obciążenia cyfrowego przy użyciu systemu sztucznej inteligencji podobnego do dużych modeli językowych stojących za nowoczesnymi chatbotami. Umieszczony w jednostkach przydrożnych, taki LLM pomaga w czasie rzeczywistym zdecydować, gdzie każdy samochód powinien wysłać swoje cyfrowe „zadania”, aby wykonać je szybko i przy mniejszym zużyciu energii.

Figure 1
Figure 1.

Jak samochody dzielą się cyfrowymi zadaniami

W nowoczesnej sieci drogowej pojazdy nieustannie generują drobne zadania obliczeniowe: analizę danych z czujników, koordynację z pobliskimi samochodami czy odwołania do map i wzorców ruchu. Każde zadanie można obsłużyć na trzy sposoby: przetworzyć je lokalnie w pojeździe, wysłać do innego lepiej wyposażonego pojazdu lub zlecić je do jednostki przydrożnej bądź chmury. Wyzwanie polega na wyborze najlepszej opcji w ułamku sekundy, gdy samochody poruszają się z dużą prędkością, a połączenia sieciowe pojawiają się i zanikają. Tradycyjne metody opierają się na stałych wzorach lub schematach treningowych, które zawodzą, gdy drogi są zatłoczone, warunki szybko się zmieniają lub trzeba równoważyć wiele różnych czynników.

Postawienie potężnego „mózgu” przy drodze

Autorzy proponują umieszczenie dużego modelu językowego (LLM) w węzłach brzegowych przy drodze — w praktyce inteligentnych skrzynkach wzdłuż trasy, które już wspierają łączność pojazdów. Zamiast czytać zdania, ten LLM przetwarza ustrukturyzowane migawki sytuacji drogowej: prędkość i pozycję każdego pojazdu, pozostały poziom baterii, dostępną moc obliczeniową oraz jakość sygnału bezprzewodowego, a także cechy każdego zadania takie jak pilność i rozmiar. Z tych wielowymiarowych wejść LLM „wnioskuje”, który samochód lub węzeł brzegowy powinien wykonać dane zadanie, uwzględniając jednocześnie prędkość, odległość, stabilność łącza i koszty energetyczne, zamiast rozpatrywać je pojedynczo. Działa jak kontroler ruchu dla pracy cyfrowej, kierując każde zadanie tam, gdzie ma największe szanse zakończyć się na czas i z możliwie najmniejszym zużyciem baterii.

Od prostych reguł do adaptacyjnego rozumowania

Aby zilustrować korzyści tej metody, badanie porównuje system oparty na LLM z dwoma powszechnymi alternatywami: prostą metodą regułową opartą na stałej ważonej ocenie oraz zaawansowanymi modelami drzewa decyzyjnego (Random Forest i XGBoost). Te metody odniesienia traktują decyzję jako sztywny wzór lub zbiór drzew decyzyjnych. Działają stosunkowo dobrze, gdy samochodów jest niewiele i warunki są proste, ale zawodzą, gdy ruch staje się gęstszy, pojazdy poruszają się szybciej lub trzeba rozważyć wiele sygnałów statusu jednocześnie. W przeciwieństwie do nich LLM uczy się złożonych zależności podczas treningu i może natychmiast dostosować, które czynniki są najważniejsze — na przykład faworyzując bardziej stabilne połączenie przy dużych prędkościach lub oszczędzając baterię, gdy sieć jest przeciążona.

Co pokazują symulacje

Autorzy testują swój framework w szczegółowym symulatorze, który odzwierciedla miejskie drogi, łącza bezprzewodowe i poruszające się pojazdy. Modyfikują liczbę samochodów, ich prędkość oraz ilość informacji przekazywanej do każdego modelu. W tych scenariuszach system oparty na LLM kończy więcej zadań pomyślnie, z niższym opóźnieniem i lepszym wykorzystaniem energii niż zarówno metody głębokiego uczenia ze wzmocnieniem opisane we wcześniejszych pracach, jak i testowane tutaj modele drzewiaste. Średnio skraca czas oczekiwania na zadanie o około 15% i poprawia efektywność energetyczną o ponad 20% w porównaniu z silną bazą wzmocnieniową, przy jednoczesnym ukończeniu około 97,5% zadań. Gdy LLM zostanie dostrojony i skompresowany do działania na procesorze graficznym umieszczonym przy drodze, jego własne opóźnienie decyzyjne staje się na tyle małe, że nadaje się do zastosowań krytycznych czasowo w ruchu drogowym.

Figure 2
Figure 2.

Wyzwania na krawędzi drogi

Te korzyści wiążą się z kompromisami. Duże modele językowe są żarłoczne jeśli chodzi o pamięć i moc obliczeniową, co budzi obawy w przypadku jednostek przydrożnych, które mogą działać na ograniczonym sprzęcie. W miarę wzrostu liczby pojazdów i zadań węzły brzegowe mogą doświadczać dużego obciążenia CPU i pamięci. Czarna skrzynka takich modeli utrudnia też wyjaśnienie, dlaczego wybrano konkretny samochód do danego zadania. Autorzy omawiają sposoby złagodzenia tych problemów, takie jak kompresja modelu, użycie arytmetyki niższej precyzji oraz ulepszanie narzędzi ujawniających, w jaki sposób model podejmuje decyzje.

Co to oznacza dla przyszłych dróg

Podsumowując, badanie sugeruje, że wykorzystanie LLM jako silników decyzyjnych w sieciach pojazdowych może uczynić połączone i autonomiczne samochody bardziej responsywnymi i świadomymi energetycznie, szczególnie w zatłoczonych, szybko zmieniających się warunkach. Traktując cały system drogowy jako żywe, zmienne puzzle i rozumując jednocześnie na wielu sygnałach, modele te mogą skuteczniej wybierać miejsce wykonania każdego cyfrowego zadania niż stałe reguły czy starsze metody uczenia. Jeśli inżynierom uda się okiełznać ich zapotrzebowanie na zasoby, zlecanie zadań sterowane przez LLM może stać się kluczowym składnikiem przyszłych inteligentnych systemów transportowych, pomagając ruchowi toczyć się płynniej i bezpieczniej przy kontrolowanym zużyciu baterii i zasobów sieciowych pojazdów.

Cytowanie: Trabelsi, Z., Ali, M., Qayyum, T. et al. Dynamic task offloading in vehicular networks using large language models for adaptive low latency decision making. Sci Rep 16, 9144 (2026). https://doi.org/10.1038/s41598-026-39791-y

Słowa kluczowe: edge computing w pojazdach, zlecanie zadań, duże modele językowe, pojazdy autonomiczne, sieci o niskim opóźnieniu