和风网标志

实施负责任的人工智能国防原则 – IBM 博客

日期:


实施负责任的人工智能国防原则 – IBM 博客



年轻女性的后视,自由职业数据科学家在家里远程编码大数据挖掘、人工智能数据工程、IT 技术人员从事人工智能项目。

人工智能 (AI) 正在改变社会,包括其特征 国家安全。认识到这一点,国防部 (DoD) 于 2019 年成立了联合人工智能中心 (JAIC),它是首席数字和人工智能办公室 (CDAO) 的前身,旨在开发人工智能解决方案,以建立竞争性军事优势、人类生存条件以人工智能为中心的采用以及国防部行动的敏捷性。然而,国防部扩展、采用和充分发挥人工智能潜力的障碍与私营部门的障碍相似。

最近 IBM调查 发现阻碍人工智能成功部署的最大障碍包括有限的人工智能技能和专业知识、数据复杂性和道德问题。此外,根据 IBM 商业价值研究院79% 的高管表示人工智能道德对其企业范围内的人工智能方法很重要,但只有不到 25% 的高管实施了人工智能道德的共同原则。赢得对人工智能模型输出的信任是一项社会技术挑战,需要社会技术解决方案。

专注于实施负责任的人工智能管理的国防领导人必须首先就一个共享词汇达成一致,即一种指导安全、负责任地使用人工智能的共同文化,然后再实施降低风险的技术解决方案和护栏。国防部可以通过提高人工智能素养并与值得信赖的组织合作制定与其战略目标和价值观相一致的治理来为实现这一目标奠定坚实的基础。

AI素养是安全的必备条件

员工了解如何部署人工智能来提高组织效率非常重要。但同样重要的是,他们要深入了解人工智能的风险和局限性,以及如何实施适当的安全措施和道德护栏。这些是国防部或任何政府机构的赌注。

量身定制的人工智能学习路径可以帮助确定差距和所需的培训,以便人员获得其特定角色所需的知识。全机构范围内的人工智能素养对于所有人员都至关重要,以便他们能够快速评估、描述和响应快速传播的病毒性威胁和危险威胁,例如虚假信息和深度造假。 

IBM 在我们的组织内以定制的方式应用人工智能素养,因为基本素养的定义因人的职位而异。

支持战略目标并与价值观保持一致

作为值得信赖的人工智能领域的领导者,IBM 在开发治理框架方面拥有丰富的经验,这些框架可指导负责任地使用人工智能,使其符合客户组织的价值观。 IBM 还在 IBM 内部拥有自己的人工智能使用框架, 政策立场 比如面部识别技术的使用。

人工智能工具现已用于国家安全并帮助防范 数据泄露网络攻击。但人工智能还支持国防部的其他战略目标。它可以 增加劳动力,帮助他们提高效率,并帮助他们 再技能。它可以帮助创造有弹性的 支持士兵、水手、飞行员和海军陆战队执行作战、人道主义援助、维和和救灾任务。

CDAO 包括负责任、公平、可追溯、可靠和可治理的五项道德原则,作为其 负责任的人工智能工具包。这些原则基于美国军方现有的道德框架,植根于军方的价值观,有助于维护其对负责任的人工智能的承诺。

必须共同努力,通过考虑模型中的功能性和非功能性需求以及围绕这些模型的治理系统,使这些原则成为现实。下面,我们为 CDAO 道德原则的实施提供广泛的建议。

1.负责任

“国防部人员将进行适当程度的判断和谨慎,同时继续负责人工智能功能的开发、部署和使用。”

大家都同意人工智能模型应该由细心、体贴的人员开发,但组织如何培养人才来做这项工作呢?我们推荐:

  • 培育一种认识人工智能挑战的社会技术性质的组织文化。必须从一开始就传达这一点,并且必须认识到需要将其纳入模型及其管理中以监控绩效的实践、技能组合和深思熟虑。
  • 详细说明整个人工智能生命周期的道德实践,对应于业务(或任务)目标、数据准备和建模、评估和部署。这 CRISP-DM 模型在这里很有用。 IBM的 规模化数据科学方法是 CRISP-DM 的扩展,通过数据科学家、工业组织心理学家、设计师、传播专家和其他人的协作输入,提供整个 AI 模型生命周期的治理。该方法融合了数据科学、项目管理、设计框架和人工智能治理的最佳实践。团队可以轻松查看和理解生命周期每个阶段的需求,包括文档、他们需要与谁交谈或协作以及后续步骤。
  • 提供可解释的 AI 模型元数据(例如 情况介绍) 指定责任人、绩效基准(与人力相比)、使用的数据和方法、审计记录(日期和由谁)以及审计目的和结果。

注意:这些责任衡量标准必须能够由人工智能非专家来解释(无需“数学解释”)。

2. 公平

“该部门将采取审慎措施,尽量减少人工智能能力方面的意外偏见。”

每个人都同意人工智能模型的使用应该公平而不是歧视,但在实践中这是如何发生的呢?我们推荐:

  • 建立一个 卓越中心 为多样化的多学科团队提供一个应用培训社区,以确定潜在的不同影响。
  • 使用审计工具来反映模型中表现出的偏差。如果反思与组织的价值观一致,那么所选数据和方法的透明度是关键。如果反思与组织价值观不一致,那么这就是必须做出改变的信号。发现和减轻由偏见引起的潜在不同影响不仅仅涉及检查模型训练的数据。组织还必须检查所涉及的人员和流程。例如,是否清楚地传达了模型的适当和不适当的使用?
  • 衡量公平并制定公平标准 可行的 通过为不同级别的服务提供功能和非功能需求。
  • 运用 设计思想 评估人工智能模型的意外影响、确定最终用户的权利并实施原则的框架。设计思维练习必须包括具有广泛不同生活经历的人——越多样化越好.

3、可追溯

“国防部的人工智能能力将得到开发和部署,以便相关人员对适用于人工智能能力的技术、开发流程和操作方法有适当的了解,包括透明和可审计的方法、数据源以及设计程序和文档。”

通过向所有使用人工智能的人员提供明确的指导方针来实现可追溯性:

  • 当用户与人工智能系统交互时,始终向用户明确说明。
  • 为 AI 模型提供内容基础。使领域专家能够管理和维护用于训练模型的可信数据源。模型输出基于其训练数据。

IBM 及其合作伙伴可以为 AI 解决方案提供全面、可审计的内容,这些内容是高风险用例所必需的。

  • 捕获 关键元数据 使 AI 模型透明并跟踪模型库存。确保此元数据是可解释的,并且向适当的人员公开正确的信息。数据解释需要实践,是一项跨学科的工作。在 IBM,我们的 人工智能设计 该小组旨在教育员工了解数据在人工智能(以及其他基础知识)中的关键作用,并向开源社区捐赠框架。
  • 使人们可以轻松找到此元数据(最终在输出源处)。
  • 包括人机交互,因为人工智能应该增强和帮助人类。这使得人类能够在人工智能系统运行时提供反馈。
  • 在部署或采购模型之前,创建流程和框架来评估不同的影响和安全风险。指定负责人来减轻这些风险。

4.可靠

“国防部的人工智能能力将具有明确、明确的用途,并且此类能力的安全性、安保性和有效性将在其整个生命周期内的这些定义的用途内接受测试和保证。”

组织必须记录明确定义的用例,然后测试合规性。实施和扩展这一流程需要强有力的文化一致性,因此即使没有持续的直接监督,从业者也能遵守最高标准。最佳实践包括:

  • 建立不断重申的社区 为什么 公平、可靠的产出至关重要。许多从业者坚信,只要有最好的意图,就不会产生不同的影响。这是被误导的。由高度参与的社区领导者提供的应用培训至关重要,他们能让人们感到被倾听和被包容。
  • 围绕模型训练中使用的数据指南和标准构建可靠性测试原理。实现这一目标的最佳方法是提供示例,说明缺乏这种审查时可能会发生的情况。
  • 限制用户对模型开发的访问,但在项目开始时收集不同的观点,以减少引入偏见。
  • 在整个人工智能生命周期中执行隐私和安全检查。
  • 在定期安排的审核中纳入准确性衡量标准。明确坦率地说明模型的表现与人类的表现相比如何。如果模型无法提供准确的结果,请详细说明谁对该模型负责以及用户拥有哪些资源。 (这一切都应该被纳入可解释、可查找的元数据中)。

5. 可治理

“该部门将设计和设计人工智能功能,以实现其预期功能,同时具备检测和避免意外后果的能力,以及脱离或停用表现出意外行为的已部署系统的能力。”

这一原则的实施需要:

  • AI模型投资并不止于部署。投入资源以确保模型继续按照期望和预期运行。在整个人工智能生命周期中评估和降低风险,而不仅仅是在部署之后。
  • 指定一个有资金授权的责任方来开展治理工作。他们必须有权力。
  • 投资于沟通、社区建设和教育。利用工具,例如 Watsonx 治理监控人工智能系统.
  • 如上所述捕获和管理 AI 模型库存。
  • 在所有模型中部署网络安全措施。

IBM 处于推进值得信赖的 AI 的前沿

自人工智能系统诞生以来,IBM 一直处于推进值得信赖的人工智能原则的最前沿,也是人工智能系统治理领域的思想领袖。我们遵循长期坚持的信任和透明度原则,这些原则明确表明人工智能的作用是增强而不是取代人类的专业知识和判断力。

2013 年,IBM 踏上了人工智能和机器学习的可解释性和透明度之旅。 IBM 是人工智能道德领域的领导者,于 2015 年任命了人工智能道德全球领导者,并于 2018 年创建了人工智能道德委员会。这些专家致力于帮助确保我们的原则和承诺在我们的全球业务活动中得到维护。 2020 年,IBM 向 Linux 基金会捐赠了 Responsible AI 工具包,以帮助构建公平、安全和值得信赖的 AI 未来。

IBM 引领全球努力塑造负责任的 AI 和道德 AI 指标、标准和最佳实践的未来:

  • 与拜登总统政府合作制定人工智能行政命令
  • 披露/申请了 70 多项负责任人工智能专利
  • IBM 首席执行官 Arvind Krishna 担任世界经济论坛 (WEF) 发起的全球人工智能行动联盟指导委员会的联合主席,
  • 联盟致力于加速全球范围内采用包容、透明和可信的人工智能
  • 与他人共同撰写了世界经济论坛发表的两篇关于生成人工智能的论文,内容涉及释放价值以及开发安全系统和技术。
  • Linux 基金会 AI 可信 AI 委员会联合主席
  • 为 NIST 人工智能风险管理框架做出了贡献;与 NIST 在 AI 指标、标准和测试领域合作

策划负责任的人工智能是一项多方面的挑战,因为它要求人类价值观能够可靠且一致地反映在我们的技术中。但这是非常值得的。我们相信上述指导方针可以帮助国防部实施可信人工智能并帮助其完成其使命。

有关 IBM 如何提供帮助的更多信息,请访问 人工智能治理咨询|国际商业机器公司

创建整体人工智能治理方法

更多资源:

本文是否有帮助?

支持没有


更多来自人工智能




通过数据货币化释放经济利益

6 阅读分钟数据货币化使组织能够利用其数据资产和人工智能(AI)功能创造有形的经济价值。这个价值交换系统利用数据产品来提升业务绩效,获得竞争优势,并响应市场需求应对行业挑战。财务收益包括通过创建相邻行业商业模式来增加收入、进入新市场以建立更多收入来源以及增加现有收入。成本优化可以通过提高生产力、基础设施等相结合来实现……




通过人工智能自动检查减少缺陷和停机时间

3 阅读分钟一家每年生产数百万辆汽车的大型跨国汽车制造商与 IBM 合作,通过由实时数据和人工智能 (AI) 驱动的无缝、自动化检查来简化其制造流程。作为汽车制造商,我们的客户有提供高质量产品的固有责任。理想情况下,他们需要在汽车到达消费者手中之前发现并修复任何缺陷。这些缺陷通常成本高昂、难以识别,并且会给客户满意度带来无数重大风险……




揭秘 watsonx Orders 背后的变革性 AI 技术

4 阅读分钟您正前往您最喜欢的汽车餐厅买薯条和芝士汉堡。这是一个简单的订单,当您停车时,您会发现没有太多人排队。可能会出现什么问题?很多。这家餐厅靠近一条繁忙的高速公路,交通噪音很大,飞机在接近附近机场时在头顶低空飞行。今天刮风。你身后的车里的立体声音响正在爆炸,隔壁车道的顾客正试图在……点餐。

IBM 时事通讯

获取我们的时事通讯和主题更新,提供最新的思想领导力和对新兴趋势的见解。

现在订阅

更多新闻通讯

现货图片

最新情报

现货图片