数据和人工智能治理委员会是否应该分开?

王建峰·2025年04月21日 14:24
最近几个月,几位首席数据官都问了我同一个问题:我们应该如何进行人工智能治理?

最近几个月,几位首席数据官都问了我同一个问题:我们应该如何进行人工智能治理?更具体地说,我们应该成立一个单独的人工智能治理委员会,还是应该利用现有的数据治理委员会?虽然他们渴望推进,但这种不确定性导致了延误和挫败感,尤其是在业务利益相关者中,他们往往将任何形式的治理都视为额外的复杂性。

在本文中,我将分析数据和 AI 治理委员会通常关注的重点,探讨其中的重叠部分,并讨论将它们分开或合并的利弊。目标是帮助您确定最适合您组织的方案。

“数据治理委员会”

数据治理委员会旨在确保组织有效地管理其数据。这通常包括制定清晰的政策和标准,指导治理能力的构建,并确保数据治理在组织的各个领域得到应用。数据治理委员会是确保切实执行数据治理的关键机制,并为领导者的参与和上报提供渠道。该委员会还可以监督合规性工作,以确保组织能够证明治理在实践中有效。

数据治理委员会通常涵盖的关键主题包括:

创建和传达政策和标准以确保数据管理方式的一致性。

制定并批准具有明确角色、职责和实施方法的治理框架。

管理数据质量,包括实施控制、跟踪问题及其解决方案。

监督确保遵守个保法、 GDPR 和 HIPAA 等数据隐私法规的步骤,将监管要求转化为可操作的步骤。

监督元数据管理,例如实施用于捕获、维护和共享元数据的工具和流程。

管理主数据,通常侧重于定义所有权、管理权以及确保关键数据集的数据质量。

数据治理委员会的输入通常包括现有政策、业务需求、观察到的数据问题、数据使用请求、数据密集型项目计划以及资金提案。这些输入有助于理事会确定优先事项并做出决策。输出通常包括更新后的政策、优先举措、已批准的数据目录内容、使用指南、上报至高管层的问题以及资金或项目计划的批准等等。

这些委员会的成员通常由数据所有者、数据管理员、业务代表、IT 主管、系统所有者、隐私、法律和审计团队代表组成,如果组织规模较大,有时还会有区域负责人。该委员会反映了确保治理决策符合组织总体目标所需的技术和业务视角。这种设置或多或少与已规范化数据治理实践的组织的工作方式一致。

“人工智能治理委员会”

人工智能治理委员会通常专注于管理组织内人工智能的道德和负责任使用。该委员会旨在确保在应用人工智能和分析技术时,其巨大的规模化和自动化潜力得到谨慎管理。人工智能系统能够处理海量数据,并以比任何手动流程更快、更广泛的方式影响决策。人工智能算法一旦部署,便可能具备自主行动的能力,因此控制其使用方式并明确界定哪些行为合适、哪些行为不合适至关重要。这一点尤为重要,因为人工智能决策通常缺乏透明度或可解释性,这意味着诸如偏见或意外后果等潜在问题可能会被忽视,直到造成重大损害。

例如,当用于训练模型的历史数据反映出不公平或刻板印象时,AI 就可能出现偏见。如果一个用于招聘决策的 AI 模型,是基于某个行业的历史招聘数据进行训练的,而该行业对某一特定人群的偏好高于其他人群,那么 AI 可能会强化并延续这些偏见,系统性地排除某些候选人。

因此,考虑到这一点,人工智能治理委员会通常讨论的关键主题包括:

  • 人工智能伦理、偏见和公平 

定义和执行道德原则,以确保人工智能系统公平对待所有群体,不会(非)故意伤害个人或社区。

  • 人工智能用例的风险评估 

识别和评估与每个人工智能应用相关的风险,例如声誉损害、违反法规或运营失败。

  • 模型治理 

为人工智能模型设定总体治理框架,包括对文档、可解释性、测试、监控和问责的期望——而实际实施和生命周期管理则在交付团队中进行。

  • 遵守人工智能特定法规 

解释并遵守人工智能法案等法律框架,该法案为人工智能的安全性、透明度和问责制制定了标准。

提交给委员会的意见通常包括人工智能相关的政策、伦理指南、监管要求、商业用例、组织战略以及数据和人工智能使用指标。当出现问题时,额外的意见可以以审计结果、监管发现或事件的形式出现,这些事件凸显了监管方面的差距,并触发了审查或纠正措施。行业指南或社会规范等外部期望,以及人工智能项目的项目提案和资金申请,也发挥着重要作用。

AI 治理委员会的成果可能包括符合伦理道德的 AI 框架、批准或拒绝 AI 模型及其用例的决策、风险缓解策略、将未解决的风险或问题上报至高管层,以及资金或资源分配的审批。这些成果有助于确保 AI 项目符合组织目标和外部要求,同时最大限度地降低潜在风险。

人工智能治理委员会的参与者通常由专家和利益相关者组成,他们能够提供多元化的观点。这些参与者可能包括人工智能专家、法律顾问、隐私代表、商业领袖、数据治理代表、平台或系统所有者以及其他相关专家。这种广泛的专业知识确保委员会能够有效地处理人工智能治理的技术和伦理层面的问题。

下表总结了数据治理和人工智能治理委员会的主要典型特征。

方面

数据治理委员会

AI治理委员会

主要目标

管理组织内数据的有效管理,确保质量、合规性和可访问性。

管理AI的合乎道德和负责任的使用,重点关注控制风险、确保公平性和保持透明度。

关键主题与概念

数据政策和标准的创建与沟通;数据治理框架(角色、职责、实施)的发展;数据质量管理(控制和问题解决);遵守数据隐私法规(例如个保法、GDPR、HIPAA);元数据管理和血缘追踪;主数据管理(MDM)。

AI伦理、偏见和公平性;AI使用案例的风险评估;模型治理(生命周期管理、监控和解释性);遵守特定于AI的法规(例如欧盟AI法案)。

典型输入

数据政策和标准;数据问题和业务需求;数据使用请求和指标;项目和资金提案。

特定于AI的政策和标准;伦理指南和监管要求;业务需求和使用案例;外部指南和组织策略;数据和AI使用指标;项目和资金请求。

典型输出

数据政策决策和优先倡议;批准的数据目录内容和使用指南;向执行管理层升级;批准的资金或项目计划。

伦理AI框架;AI模型和使用案例的批准或拒绝;风险缓解策略和合规计划;向执行领导层升级;批准的资金或资源分配。

共同/典型利益相关者

数据管理员和数据所有者;业务代表和IT领导者;系统所有者和合规官员;域负责人(对于较大的组织)。

AI专家;法律顾问和隐私代表;业务利益相关者;数据治理代表;平台和系统所有者。

数据治理与人工智能治理的重叠与共同点

数据治理和人工智能治理之间存在显著的重叠,尤其是在它们都以赋能业务用例为核心这一点上。数据治理的重点是确保正确的数据能够满足业务目标的需求。这涉及确定数据的质量、可访问性和合规性,以便有效地支持各种用例。人工智能治理则专注于专门涉及人工智能的业务用例,确保这些应用符合伦理道德、负责任,并与组织目标保持一致。两者之所以重叠,是因为许多业务用例在两者之间共享,都依赖于强大的数据基础和对人工智能系统的适当监管。

另一个共同点在于数据所有权和分类的重要性。数据治理的根本在于了解数据存在哪些内容、数据位于何处、数据敏感程度如何以及如何使用。这些活动对于建立问责制和确保遵守数据法规至关重要。人工智能治理在此基础上建立,通过利用数据分类并让数据所有者参与其中,确保人工智能系统能够妥善使用数据。例如,了解哪些数据集是敏感的或受限制的,可以直接指导决策哪些人工智能应用在何种条件下是允许的。

AI 治理也高度依赖于具体的数据治理能力。数据目录和元数据管理系统等工具在识别和理解可用数据集方面发挥着至关重要的作用。例如,许多基于内部数据训练的生成式 AI 模型需要精确的定义和元数据才能正确解读数据并有效运行。同样,了解数据的存储位置及其分类方式,可以使 AI 治理工作与更广泛的组织数据战略保持一致,并确保遵守既定规则。

或许最直接的重叠领域在于推动数据的合理使用。数据治理的根本在于确保数据以正确的方式用于正确的目的。这包括管理数据生命周期,从创建到使用,通常还涉及建立审批流程、配置控制和使用指南。我曾与一家保险行业机构合作,该机构将此作为其企业数据治理计划的核心,持续了一年,确保每个用例都经过适当的审查和批准。从许多方面来看,人工智能治理只是这项更广泛努力的一部分:其重点是确保人工智能应用程序中的数据使用是恰当的,并符合道德和监管标准。

最后,利益相关者在实际操作上存在重叠。许多参与数据治理工作的个人和团队,例如数据管理员、IT 主管、合规官和业务代表,与参与 AI 治理项目或委员会的人员相同。

何时以及为何将数据治理与人工智能治理分开可能是件好事

有几个原因可以解释为什么将数据治理和人工智能治理分开是有意义的,这些因素中的一个或多个越适用,将它们区分开来的理由就越充分:

时间压力。AI治理通常需要比数据治理更快的推进速度。数据治理项目通常采用基于领域的方法,耗时数月甚至数年,而 AI 治理通常与业务用例直接相关,需要立即上线。业务利益相关者希望尽快部署 AI 解决方案,而为了适应更慢、更系统的数据治理实施而推迟这些解决方案可能会适得其反。通过将两者分离,组织可以让 AI 治理以更快的速度运行,同时确保其保持必要的严谨性。

人工智能和非人工智能数据使用性质的差异。人工智能治理需要针对人工智能系统及其复杂性的专业知识。数据治理相对具有普遍性,侧重于数据所有权、质量和访问权限,而人工智能治理则面临着更难理解的挑战,例如透明度和可解释性。人工智能系统通常以“黑匣子”的形式运行,因此很难完全理解决策是如何制定的。人工智能的可扩展性进一步加剧了这一问题,人工智能驱动的决策可以在几秒钟内影响数百万客户或交易。治理中的任何失误都可能导致直接的大规模损害,这需要专门的关注和专业知识。

计划中或现有的 AI 使用范围。组织内 AI 的使用范围也会影响分离治理工作的决策。如果 AI 的使用仅限于单个业务部门或职能,那么将 AI 治理仅集中在该领域可能是有意义的,而无需涉及更广泛的数据治理计划。在这种情况下,让更广泛的利益相关者参与与他们无关的讨论会浪费时间和资源。相反,如果 AI 渗透到多个业务部门和职能,与数据治理的协同作用就会增强,从而降低分离的效益。AI 在组织内的覆盖范围在决定治理工作应该统一还是拆分方面起着关键作用。

专注于AI建模而非更广泛的数据问题。AI治理通常依赖于数据治理作为输入或推动因素,而不是直接负责更广泛的数据管理工作。例如,理想情况下,AI治理应该从数据治理流程提供的干净、分类良好的数据开始。然后,AI治理可以专注于AI建模方面的考量,例如:

建立建模标准。

记录和测试模型。

进行偏见测试。

实施后监控和再训练模型。

确保遵守人工智能特定的法规。

这些活动通常技术性很强,且与人工智能密切相关,需要专业知识和关注度,且不与更广泛的数据治理职责重叠。组织越能将这些人工智能特定任务与更广泛的数据使用考量清晰地区分开来,就越有理由成立单独的人工智能治理委员会。

通过将人工智能治理的重点放在人工智能系统的运营、伦理和技术层面,并让数据治理处理基础数据问题,组织可以简化这两个流程,并避免不必要的复杂性。这种分离确保了每个治理机构都能有效运作,而不会互相干扰。

为什么应该同时考虑数据治理和人工智能治理

我刚刚阐述了何时以及为何可以将数据治理和人工智能治理分开……然而,总体而言,在没有具体理由将它们分开的情况下,我倾向于默认将它们放在一起。以下是一些原因:

  • 共享基础——理解、分类并负责任地使用数据 

数据治理和人工智能治理的核心都建立在相同的原则之上:理解数据存在哪些内容、对其进行适当分类并确保以负责任的方式使用数据。虽然人工智能决策可能因其可扩展性和快速影响的潜力而需要额外关注,但定义数据所有权、分类和使用方式的基础流程是相同的。人工智能治理并非取代这些原则,而是以它们为基础。通过将两者结合起来,组织可以避免重复工作并确保数据处理方式的一致性。

  • 推动合理使用的统一方法 

对我来说,管理数据的合理使用和管理人工智能的合理使用之间没有根本区别。以客户细分为例:一个用例最初可能涉及手动流程,但之后可能会演变为包含自动化,并最终由人工智能驱动的模型。在手动阶段,用一套标准来管理这个用例,而在引入人工智能后,再将其转移到另一套单独的标准,这样合理吗?当然不是。数据的道德和负责任使用不应取决于决策是由人类还是人工智能程序做出的。人工智能只是自动化的一个层面,同样的道德使用原则应该普遍适用。

  • 避免利益相关者疲劳和重复劳动 

从实际角度来看,让业务利益相关者有效地参与一个治理委员会本身就颇具挑战性。要求他们参与两个委员会——一个负责数据治理,另一个负责人工智能治理——只会增加复杂性和所需的工作量。如果数据和人工智能治理领域对于是否应该设立一个还是两个委员会存在不确定性,那么可以肯定的是,业务利益相关者也会提出同样的问题。单一委员会可以避免重复劳动,减少利益相关者疲劳,并确保更高效的治理。

  • 通过统一治理简化协调 

将数据治理与人工智能治理相结合,有助于推动统一方法,从而简化业务协调并减少混乱。一套统一的框架、政策和标准几乎总是比各自为政更可取。这不仅使治理更易于管理,也使利益相关者更容易理解和遵守规则,无论他们处理的是数据还是人工智能用例。

  • 后期灵活分离 

最后,最初将治理保持统一可以灵活地进行调整,以便随着组织成熟度的增长而不断提升。一旦建立了治理框架并且团队积累了经验,将 AI 治理与数据治理分开是否合理就会变得更加清晰。如果组织发现某些利益相关者或用例需要更多关注,那么将其拆分成单独的工作组甚至独立的 AI 治理委员会相对容易。然而,反之则困难得多。如果一开始就设立两个独立的委员会,后来意识到需要将它们统一起来,就会面临一系列挑战。这些挑战包括协调遗留决策、协调工具和框架,以及解决方法或政策中的冲突。此外,领导者或利益相关者也有可能抵制,因为他们可能会觉得自己的角色或权威在过渡期间被削弱。通过从合并委员会开始,组织可以避免这些陷阱,并为有效、可扩展的治理奠定基础。

小结

决定将数据治理与 AI 治理分开还是合并,最终取决于您组织的独特需求和成熟度。虽然两种方法都有其合理的论据,但从统一的框架入手通常能够提供灵活性和简便性,以便随着组织的发展进行扩展。AI 的运作离不开数据,其治理也同样如此。

我很想听听大家的看法。你的组织是如何解决这个问题的?

本文来自微信公众号 “数据驱动智能”(ID:Data_0101),作者:晓晓,36氪经授权发布。

+1
7

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

获得高质量数据的第一准则:停止加载低质量数据。其实就这么简单。我看到很多公司都犯了这个错误,然后就纳闷为什么他们的数据质量这么差。

2025-04-21

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业