返回资讯列表
AI安全

美国财政部发布金融机构AI风险指南

AI News2026/05/0612,458 阅读
⚠️

美国财政部发布《CRI金融服务AI风险管理框架》及配套指南,由百余机构协作制定,旨在帮助金融机构识别、评估、治理AI风险,支持负责任采用与创新。框架聚焦算法偏见、透明度、网络安全及LLM不可预测性等新风险,作为NIST框架的行业扩展,提供230个控制目标,覆盖治理、映射、衡量、管理四职能,并以成熟度问卷与风险-控制矩阵指导落地。

美国财政部发布金融机构AI风险指南

AI新闻

2026年3月16日

分享本文:

标签:

金融行业

金融科技

治理

风险

美国AI政策

分类:

金融AI

治理、监管与政策

美国财政部发布了一系列面向美国金融服务行业的文件,提出在运营和政策中系统化管理AI风险的方法(见链接底部“资源与下载”部分)。CRI金融服务AI风险管理框架(FS AI RMF)附带一本指南书[.docx],详细介绍了该框架。该框架由100多家金融机构和行业组织协作开发,并得到监管机构和技术机构的支持。

FS AI RMF的目标是帮助金融机构识别、评估、管理和治理与AI系统相关的风险,使企业能够负责任地继续采用AI技术。

面向行业的框架

AI系统带来的风险是现有技术治理框架未能涵盖的。这些风险包括算法偏见、决策过程透明度有限、网络安全漏洞以及系统与数据之间的复杂依赖关系。大型语言模型(LLM)尤其令人担忧,因为其行为难以解释或预测。与传统软件不同,AI的输出会根据上下文而变化。

金融机构本就受到广泛监管,且存在大量通用指导文件,如NIST AI风险管理框架。然而,将通用框架应用于金融机构的运营缺乏能够反映行业实践和监管期望的细节。FS AI RMF被定位为NIST框架的扩展,其页面中包含额外的行业特定控制措施和实用实施指南。

指南书解释了企业如何评估其当前的AI成熟度,并实施控制措施以降低风险。其目标是促进一致且负责任的AI实践,并支持行业创新。

核心结构

FS AI RMF将AI治理与金融机构已有的更广泛治理、风险和合规流程相连接。

该框架包含四个主要组件。第一部分是AI采用阶段问卷,帮助组织确定其AI使用的成熟度。第二部分是风险与控制矩阵,其中包含与采用阶段相一致的风险陈述和控制目标。指南书解释了如何应用该框架,而一份单独的控制目标参考指南则提供了控制措施示例和支持证据。

该框架共定义了230个控制目标,根据四个从更广泛的NIST AI风险管理框架中调整而来的职能进行组织:治理、映射、衡量和管理。每个职能下包含若干类别和子类别。

来源:AI News

AI人工智能科技AI安全