Clear Sky Science · zh

将欧盟人工智能法案的研究豁免应用于当代 AI 研究的挑战

· 返回目录

为什么新的 AI 规则关系到每个人

人工智能正迅速从研究实验室走向医院、银行、学校和公共机构。为了在鼓励创新的同时保障公众安全,欧盟制定了世界上首部专注于 AI 的广泛法律,称为欧盟人工智能法案。本文聚焦于该法律中看似狭窄但至关重要的一角:面向研究的特殊豁免。作者认为,在现代 AI 的现实中,“仅仅是研究”与“实际应用”之间的界线并不清晰,这种模糊性可能既抑制有益的科学研究,也可能让有风险的应用绕过安全防护。

Figure 1
图 1。

新 AI 法如何试图保护我们

欧盟人工智能法案建立了一个覆盖构建、销售和使用 AI 系统的大范围框架,即便相关主体在欧洲之外但对欧盟内的人产生影响也在其管辖之内。在这一宽泛适用范围内,法律为研究划定了两个关键豁免:其一适用于仍在开发中、尚未投放市场或用于预定目的的 AI 系统;其二适用于已经完成且仅为科学研究而设计和使用的系统。理论上,这些豁免旨在防止繁文缛节扼杀实验,同时确保在日常生活中使用的 AI 符合严格的安全、透明和基本权利要求。

实验室的边界何时与现实世界交接

第一个关于开发阶段的豁免假定实验室测试与现实世界使用之间存在明确分界。法律指出,在系统“投放市场”或“投入使用”之前的活动不在其适用范围内,但明确排除了在现实环境中进行的测试。这看起来很简单,直到我们考虑常见的 AI 做法:例如,在医院默默运行一个原型、收集实时数据但不向医生展示任何输出。这仍然是“实验室”工作,还是已经属于“现实世界测试”?作者解释说,答案取决于系统的预期用途。如果该隐蔽系统是为诊断目的进行试验,那么它很可能被视为现实世界测试,应该触发法律的保护措施,包括审批、监督和严格的时限。

Figure 2
图 2。

当研究与商业发生重叠

第二个面向科学用途的豁免试图保护那些既为研究而开发又仅为研究而使用的 AI。实际上,这一要求难以界定。现代科学往往通过大学、医院、公司和公共机构之间的合作展开。实验室中构建的工具可能随后被转化为商业产品,或者一家公司可能出售某个系统,而大学仅将其用于研究。文章通过具体情景展示了法律措辞如何导致奇怪或不明确的结果——例如,一个最初为病患护理设计但最终仅在一项研究中用于图像分析的工具。作者警告称,诸如“唯一目的”等模糊概念既会引发诚实的困惑,也会被用于策略性行为,例如将产品标榜为“研究”以延迟合规。

漏洞与拖延的风险

这些灰色地带很重要,因为它们决定了谁必须遵守人工智能法案更严厉的规则。如果定义过于宽松,部分行为者可能在没有法律预期监督的情况下对真实人群进行近乎部署的测试,或将其流程的部分环节转移到监管较松的国家以规避义务。如果定义过于严格或僵化执行,研究人员——尤其是公共或非营利机构中的人员——可能被迫承担沉重的监管负担,即便研究没有商业动机且具有明确公共利益,例如气候建模或疾病预测。作者认为,在两项豁免中,避免漏洞与避免不必要繁文缛节之间的紧张关系始终存在,而缺乏欧盟范围内对“科学研究”的统一定义更使这一问题凸显。

为更安全、更聪明的 AI 需要改变什么

最终,文章得出结论:欧盟人工智能法案的研究豁免基于一种过时的研究图景,认为研究与现实世界影响和商业利益可以清晰分离。而在当代 AI 中,实时数据、试点部署以及公私混合项目是常态而非例外。作者呼吁对“现实环境”和“科学研究”等关键概念作出更清晰的定义,提供关于何时以及如何将 AI 系统认定为进入受监管使用的实务指引,并建立更强的防范措施以防止滥用豁免。作者主张,若不进行此类改进,法律将面临两难:要么削弱自身的保护效果,要么将有价值的研究推向监管较松的地区——从而让人们暴露于本可通过更现实、更契合实际开发方式的规则更好控制的高风险系统之中。

引用: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0

关键词: 欧盟人工智能法案, 人工智能监管, 研究豁免, 数字医学, 人工智能伦理