Clear Sky Science · zh
在车载网络中使用大型语言模型实现动态任务卸载以进行自适应低时延决策
为繁忙的汽车提供更智能的帮助
当今的联网汽车需要同时处理导航、安全警报、传感器数据甚至自动驾驶功能——所有这些都要求快速计算。然而,单辆车的车载计算机和电池有其能力上限,尤其是在拥挤的城市交通中。本文探讨了一种新的数字负载共享方式,利用类似于现代聊天机器人背后大型语言模型(LLM)的人工智能系统。在路侧单元部署该 AI,可实时决定每辆车应将其数字“琐事”发送到何处,以便更快完成并减少能耗。

汽车如何共享它们的数字任务
在现代交通网络中,车辆持续产生小型计算任务:分析传感器数据、与附近车辆协调或查询地图与交通状况。每项任务可通过三种方式处理:车辆自身处理、发送到另一辆配置更好的车辆,或卸载到路侧或云端计算机。挑战在于在毫秒级别内选择最佳选项,同时车辆高速移动、网络连接断续。传统方法依赖固定公式或训练方案,在道路拥堵、条件快速变化或需要平衡多种因素时往往力不从心。
在路侧放置一个强大的“大脑”
作者建议在路侧边缘节点部署大型语言模型(LLM)——本质上是沿路的智能设备,已有助于车辆接入网络。与阅读句子不同,这个 LLM 读取的是结构化的交通快照:每辆车的速度、位置、剩余电量、可用计算能力和无线信号质量,以及每个任务的紧急程度和大小等细节。基于这些多维输入,LLM 对哪个车辆或边缘节点应执行某项任务进行“推理”,同时考虑速度、距离、链路稳定性和能耗成本,而不是逐一权衡。它像一个数字工作流的交通管制员,将每项任务引导向最有可能按时完成且电池消耗最少的方案。
从简单规则到自适应推理
为凸显该方法的优势,研究将基于 LLM 的系统与两种常见替代方案进行比较:使用固定加权评分的简单规则方法,以及基于树的先进机器学习模型(随机森林和 XGBoost)。这些基线将决策视为僵化的公式或一组决策树。在车辆较少、条件简单时它们表现尚可,但随着交通密度增加、车辆速度加快或需考虑更多状态信号时会表现不佳。相比之下,LLM 在训练中学习复杂关系,并能即时调整其关注的因素——例如在车辆快速移动时偏好更稳定的连接,或在网络拥堵时优先节能。
模拟揭示的结果
作者在一个详细的模拟器中测试了他们的框架,该模拟器模拟真实城市道路、无线链路和移动车辆。他们改变道路上车辆数量、行驶速度以及向每个模型输入的信息量。在这些场景中,基于 LLM 的系统比早期工作中报道的深度强化学习方法和此处测试的树模型完成更多任务、延迟更低且能耗更优。平均而言,与强劲的强化学习基线相比,它将任务等待时间减少约 15%,并将能效提高超过 20%,同时仍完成约 97.5% 的任务。当 LLM 经调优并压缩以在路侧的图形处理器上运行时,其自身的决策延迟足够小,适用于对时间敏感的驾驶应用。

路侧的挑战
这些收益伴随权衡。大型语言模型对内存和计算资源需求较高,这对可能需在受限硬件上运行的路侧单元是一个问题。随着车辆和任务数量的增长,边缘节点可能出现高 CPU 和内存使用率。此外,此类模型的“黑箱”特性也使得难以解释为何某辆车会被选中处理某项任务。作者讨论了缓解这些问题的方法,例如对模型进行压缩、使用低精度算术以及改进可揭示模型决策过程的工具。
对未来道路的意义
总体而言,研究表明在车载网络中将 LLM 用作决策引擎,可以使联网和自动驾驶汽车在拥挤且快速变化的环境中更具响应性和能量意识。通过将整个道路系统视为不断变化的整体并同时推理多种信号,这些模型能够比固定规则或旧有学习方法更有效地选择每项数字任务的执行地点。如果工程师能够控制其资源需求,基于 LLM 的任务卸载有望成为未来智能交通系统的关键组成部分,有助于让交通更顺畅、更安全,同时更好地管理车辆电池和网络资源。
引用: Trabelsi, Z., Ali, M., Qayyum, T. et al. Dynamic task offloading in vehicular networks using large language models for adaptive low latency decision making. Sci Rep 16, 9144 (2026). https://doi.org/10.1038/s41598-026-39791-y
关键词: 车载边缘计算, 任务卸载, 大型语言模型, 自动驾驶车辆, 低时延网络