2026 年 4 月,欧盟正式推进《人工智能法案》实施,重点聚焦通用人工智能(GPAI)模型的合规监管。该法案基于风险分级管理,要求 GPAI 提供者必须编制并实时更新技术文档,同时履行透明度义务,向下游用户披露关键信息。此举标志着欧盟 AI 治理从立法阶段转向落地执行,旨在确保 AI 系统安全、尊重基本权利及符合欧盟价值观,应对 GPAI 在广泛场景应用中的潜在风险。
2026 年 4 月 8 日
欧盟《人工智能法案》实施:聚焦通用人工智能模型
欧盟正逐步推进其《人工智能法案》(AI Act)的实施阶段,针对通用人工智能(GPAI)模型提供者提出了新的合规义务。欧盟委员会与欧洲人工智能办公室(European AI Office)发布的指导文件明确了相关要求,标志着欧盟正在将其基于风险的 AI 治理框架付诸实践。
从立法走向实施
欧盟在人工智能治理方面迈入新阶段,即从《人工智能法案》的立法通过转向实际落地执行。此阶段特别强调通用人工智能(GPAI)模型提供者的责任,反映出此类系统在更广泛数字生态中日益增长的作用。
该法案于 2024 年正式通过,为欧盟境内的 AI 系统建立了全面的法律框架。它引入了一种基于风险的方法,将 AI 系统划分为从“极低风险”到“不可接受风险”的不同类别,并对应设定相应的监管要求。
根据法规官方文本,该框架旨在确保投放至欧盟市场的 AI 系统“安全且尊重现有基本权利法律及欧盟价值观”。
此前围绕该法案的讨论主要集中在立法谈判与适用范围上,而当前阶段则聚焦于这些条款如何在实践中具体应用。
《人工智能法案》中的通用人工智能模型
本实施阶段的一个核心议题是通用人工智能模型。这类模型可集成至多种下游应用中,在监管框架中占据独特地位。
《人工智能法案》将通用人工智能模型定义为:能够在多个任务与场景中使用的系统,可能“服务于多种目的,既可直接使用,也可集成至其他 AI 系统中”。
这一定位反映了此类模型的广泛适用性,尤其在自然语言处理、内容生成与数据分析等领域表现突出。
法案同时指出,此类模型的广泛部署可能带来超越单一用例的影响,特别是在集成至高风险系统时。
通用人工智能模型提供者的义务
欧盟委员会联合欧洲人工智能办公室已开始就通用人工智能相关条款的合规要求提出明确预期。
根据欧盟官方材料,通用人工智能模型提供者必须编制并及时更新技术文档。
(图片来源:Freepik)
法规明确规定,提供者应“编制并保持模型技术文档的时效性”,确保相关信息可供合规审查与监督之用。此外,透明度义务还要求提供者向下游用户披露特定信息。
来源:dig.watch
