Clear Sky Science · ru
Динамическое разгружение задач в транспортных сетях с использованием больших языковых моделей для адаптивных решений с низкой задержкой
Умная помощь для загруженных автомобилей
Современные подключённые автомобили одновременно решают задачи навигации, оповещений о безопасности, обработки сенсорных данных и даже функции самоуправления — и всё это требует быстрой обработки. При этом бортовой компьютер и батарея одного автомобиля имеют ограниченные возможности, особенно в плотном городском движении. В статье рассматривается новый способ распределения этой цифровой нагрузки с помощью системы искусственного интеллекта, похожей на большие языковые модели, лежащие в основе современных чат-ботов. Размещённая в придорожных узлах, такая система в реальном времени помогает принимать решения о том, куда каждый автомобиль должен отправлять свои цифровые «дела», чтобы они выполнялись быстро и с меньшими энергозатратами.

Как автомобили делят цифровые задачи
В современной транспортной сети транспортные средства постоянно генерируют небольшие вычислительные задачи: анализ данных с датчиков, координация с ближайшими автомобилями или обращение к картам и данным о трафике. Каждую задачу можно обработать тремя способами: автомобиль может выполнить её сам, передать другому, более оснащённому транспортному средству, или разгрузить её на придорожный узел или облачный сервер. Сложность заключается в выборе оптимального варианта за доли секунды, пока автомобили движутся с высокой скоростью, и сетевые соединения постоянно появляются и исчезают. Традиционные методы опираются на фиксированные формулы или обучаемые схемы, которые с трудом справляются, когда дороги переполнены, условия быстро меняются или нужно одновременно учитывать множество факторов.
Размещение мощного «мозга» у обочины
Авторы предлагают разместить большую языковую модель (LLM) на периферийных узлах вдоль дороги — по сути умных коробках, которые уже помогают автомобилям подключаться к сети. Вместо чтения предложений эта LLM обрабатывает структурированные снимки текущей дорожной ситуации: скорость и положение каждого автомобиля, оставшийся заряд батареи, доступные вычислительные ресурсы и качество беспроводного сигнала, а также характеристики каждой задачи — срочность и объём. Из этих многомерных входных данных LLM «рассуждает», какой автомобиль или узел должен выполнить конкретную задачу, учитывая скорость, расстояние, стабильность связи и энергозатраты совместно, а не по отдельности. Она действует как диспетчер цифровой работы, направляя каждую задачу к варианту, который с наибольшей вероятностью завершится вовремя и с минимальным расходом батареи.
От простых правил к адаптивному рассуждению
Чтобы подчеркнуть преимущества подхода, в исследовании LLM-система сравнивается с двумя распространёнными альтернативами: простым правилом на основе фиксированной взвешенной оценки и продвинутыми деревьями решений (Random Forest и XGBoost). Эти базовые методы трактуют решение как жёсткую формулу или набор деревьев решений. Они работают достаточно хорошо при небольшом числе автомобилей и простых условиях, но дают сбои по мере увеличения плотности трафика, роста скорости движения или необходимости учитывать множество статусных сигналов одновременно. Напротив, LLM усваивает сложные взаимосвязи в процессе обучения и может мгновенно перенастроить важность факторов — например, отдавая приоритет более стабильному соединению при быстром движении или экономии батареи при перегруженной сети.
Что показывают симуляции
Авторы тестируют свою систему в детализированном симуляторе, имитирующем реальные городские дороги, беспроводные каналы и движущиеся транспортные средства. Они варьируют число автомобилей на дороге, их скорость и объём информации, подаваемой в каждую модель. Во всех сценариях LLM-система завершает больше задач успешно, с меньшей задержкой и лучшей энергоэффективностью по сравнению как с методами глубокого обучения с подкреплением, описанными в предыдущих работах, так и с тестируемыми здесь деревьями решений. В среднем она сокращает время ожидания задач примерно на 15% и улучшает энергоэффективность более чем на 20% по сравнению с сильным базовым решением на основе обучения с подкреплением, при этом завершая около 97,5% задач. Когда LLM оптимизируют и сжимают для запуска на графическом процессоре у обочины, задержка принятия решений самой модели становится достаточно малой для приложений с критическими временными ограничениями.

Проблемы на периферии дороги
Эти преимущества сопровождаются компромиссами. Большие языковые модели предъявляют высокие требования к памяти и вычислительной мощности, что вызывает озабоченность для придорожных устройств, которые могут работать на ограничённом оборудовании. По мере роста числа автомобилей и задач узлы периферии могут испытывать высокую загрузку CPU и памяти. «Чёрный ящик» таких моделей также затрудняет объяснение, почему для конкретной задачи был выбран тот или иной автомобиль. Авторы обсуждают пути смягчения этих проблем, такие как сжатие модели, использование арифметики с пониженной точностью и улучшение инструментов, которые делают процесс принятия решений модели более прозрачным.
Что это значит для будущих дорог
В целом исследование показывает, что использование LLM в качестве движков принятия решений в транспортных сетях может сделать подключённые и автономные автомобили более отзывчивыми и экономичными по энергии, особенно в плотных и быстро меняющихся условиях. Рассматривая всю дорожную систему как живую, меняющуюся головоломку и одновременно анализируя множество сигналов, такие модели могут эффективнее выбирать, где выполнить каждую цифровую задачу, по сравнению с жёсткими правилами или более старыми методами обучения. Если инженерам удастся снизить требования к ресурсам, разгружение задач с помощью LLM может стать ключевым элементом будущих интеллектуальных транспортных систем, способствуя более плавному и безопасному движению и экономному использованию батарей и сетевых ресурсов транспортных средств.
Цитирование: Trabelsi, Z., Ali, M., Qayyum, T. et al. Dynamic task offloading in vehicular networks using large language models for adaptive low latency decision making. Sci Rep 16, 9144 (2026). https://doi.org/10.1038/s41598-026-39791-y
Ключевые слова: вычисления на периферии транспортных средств, разгружение задач, большие языковые модели, автономные транспортные средства, сети с низкой задержкой