AI 道德规范问题的示例包括数据责任和隐私、公平性、可解释性、稳健性、透明度、环境可持续发展、包容性、道德主体、价值一致性、问责制、信任和技术滥用。本文旨在提供当今行业 AI 道德规范的综合市场观点。如需了解有关 IBM 的观点的更多信息,请参阅
此处
的 AI 道德规范页面。
随着大数据的出现,公司更加注重推动整个组织的自动化和数据驱动的决策。虽然其目的通常是改善业务成果,但公司在某些 AI 应用程序中正在经历不可预见的后果,特别是由于前期研究设计不佳和数据集存在偏见。
随着不公平结果的曝光,新的指导方针已经出现,主要来自研究和数据科学界,以应对针对 AI 道德规范的担忧。AI 领域的领先公司在制定这些指导方针方面也有既得利益,因为他们自己已经开始体验到未能在其产品中维护道德标准的一些后果。在这一领域缺乏尽职调查可能会产生声誉、监管和法律风险,导致代价高昂的处罚。与所有技术进步一样,在新兴领域,创新往往会超出政府的监管。随着政府行业内相应专业知识的发展,我们可以预期公司将遵循更多的 AI 协议,以便能够避免任何侵犯人权和公民自由的行为。
在制定规则和协议来管理 AI 使用的同时,学术界已经利用《
贝尔蒙报告
》(链接位于 ibm.com 站外)作为指导实验研究和算法开发中的道德规范的手段。《贝尔蒙报告》中主要有三项原则,可以作为实验和算法设计的指南,即:
-
尊重个人:
此原则承认个人的自主性,并要求研究人员保护自主性减弱的个人,这可能是由于疾病、精神残疾、年龄限制等各种情况造成的。此原则主要涉及同意的概念。个人应该留意其参与的任何实验的潜在风险和益处,并应该能够在实验之前和实验过程中随时选择参与或退出。
-
善行:
此原则借鉴了医疗保健道德规范,即医生宣誓“不戕害病人”。这个想法可以轻松应用于人工智能,但相关算法可能会放大种族、性别、政治倾向等方面的偏见,尽管其本意是行善并改进给定系统。
-
公正:
这个原则旨在处理公平和平等等问题。谁应该从实验和机器学习中获益?《贝尔蒙报告》提供了以下五种分担负担和收益的方法:
2022 年 ChatGPT 的发布标志着人工智能的真正转折点。OpenAI 聊天机器人的能力(从撰写案情摘要到调试代码)为 AI 的功能及其在几乎所有行业的应用开辟了新的可能性。ChatGPT 和类似的工具建立在基础模型、可适应广泛下游任务的 AI 模型之上。基础模型通常是大规模生成式模型,由数十亿个参数组成,使用自我监督对未标记数据进行训练。这让基础模型能够快速地将其在一个环境中学到的知识应用到另一个环境中,使其具备高度的适应性,并能够执行各种不同的任务。然而基础模型存在许多技术行业公认的潜在问题和道德规范问题,例如偏见、虚假内容生成、缺乏可解释性、滥用和社会影响。其中许多问题与 AI 普遍相关,但鉴于基础模型的强大功能和可用性,这些问题变得更加紧迫。
虽然这个话题引起了公众的广泛关注,但许多研究人员并不在意 AI 会在不久的将来超越人类智慧的想法。这也称为超级智能,Nick Bostrum 将超级智能定义为“几乎在所有领域都远超最优秀人类大脑的任何智力,包括科学创造力、一般智慧和社交技能”。尽管目前社会上并不急于实现强 AI 和超级智能,但我们在考虑使用使用自动驾驶汽车等自主系统时,这个想法引发了一些有趣的问题。认为无人驾驶汽车永远不会发生事故是不现实的,那么一旦发生事故,该由谁来承担责任呢?我们是应该继续开发自动驾驶汽车,还是只将这项技术集成限于可提升驾驶员安全的半自动驾驶汽车?虽然目前还没有定论,但随着创新 AI 技术的发展,人们开始对这些伦理问题展开了激烈争论。
许多智能系统中的偏见和歧视引发了许多有关使用人工智能的道德规范问题。当训练数据集可能助长偏见时,我们该如何防止偏见和歧视?尽管公司在自动化方面通常抱有良好的意愿,但将 AI 嵌入招聘实践可能会带来无法预料的后果。在努力实现流程自动化和简化的过程中,Amazon 在招聘技术岗位时
无意中对潜在求职者产生了性别偏见
(链接位于 ibm.com 站外),最终不得不放弃该项目。随着此类事件的浮出水面,《
哈佛商业评论
》(链接位于 ibm.com 站外)围绕 AI 在招聘实践中的使用提出了其他尖锐的问题,例如在评估候选人是否适合某个职位时
应该
能够使用哪些数据。
偏见和歧视并不局限于人力资源职能;可以在许多应用场合中发现这种问题,包括面部识别软件和社交媒体算法。
随着企业越来越意识到 AI 的风险,他们也越来越积极地参与围绕 AI 道德规范和价值观的讨论。例如去年,IBM 首席执行官 Arvind Krishna 分享道,“
IBM
坚决反对并且不会容忍将任何技术(包括其他供应商提供的面部识别技术)用于大规模监视、种族定性、侵犯基本人权和自由或任何不符合我们的价值观以及信任和透明原则的用途。”
治理是组织通过内部政策和流程、人员和系统监督 AI 生命周期的行为。治理有助于确保 AI 系统按照组织的原则和价值观、利益相关者的期望以及相关法规的要求运行。成功的治理计划将:
-
定义使用 AI 的工作人员的角色和职责。
-
教育 AI 生命周期中涉及的所有人以负责任的方式构建 AI。
-
制定构建、管理、监控和沟通 AI 和 AI 风险的流程。
-
在整个 AI 生命周期中,利用工具提高 AI 的性能和可信度。
AI 伦理委员会是一种行之有效的治理机制。IBM 的 AI 伦理委员会由来自企业各部门的多元化领导者组成。委员会为 IBM 伦理政策与实践提供了集中治理、审查和决策流程。
了解有关 IBM AI 伦理委员会的更多信息
。
组织可以遵循适用于组织范围内所有产品、政策、流程和实践的原则,在此指导下利用 AI 伦理方法实现值得信赖的 AI。构建这些原则应该围绕可解释性或公平性等重点领域并得到这些领域的支持,可以针对这些领域制定标准,并在实践方面保持一致。
以道德为核心构建 AI 时,它能够发挥出巨大的潜力,对社会产生积极影响。我们已经开始在它与放射学等医疗保健领域的整合中见证这一点。围绕 AI 道德规范的对话对于从设计阶段开始适当评估和减轻与 AI 使用相关的潜在风险也很重要。
由于道德标准并不是私营部门数据工程师和数据科学家的
主要关注点,因此出现了一些旨在推动人工智能领域道德规范行为的组织。如需更多信息,以下组织和项目提供了制定 AI 道德规范的资源:
-
AlgorithmWatch
:此非营利组织关注 AI 程序中可解释、可追溯的算法和决策过程。点击
此处
(链接位于 ibm.com 站外)了解更多信息。
-
AI Now Institute:
纽约大学的非营利机构,研究人工智能的社会影响。点击
此处
(链接位于 ibm.com 站外)了解更多信息。
-
DARPA:
美国国防部的
国防高级研究计划署
(链接位于 ibm.com 站外)专注于推动可解释的 AI 和 AI 研究。
-
CHAI:
人类兼容人工智能中心
(链接位于 ibm.com 站外)是各大研究所和大学的合作组织,旨在推广值得信赖的 AI 和可证明的有益系统。
-
NASCAI:
美国国家人工智能安全委员会
(链接位于 ibm.com 站外)是一个独立委员会,“负责考虑推进人工智能、机器学习和相关技术发展所需的方法和手段,以全面满足美国的国家安全和国防需求”。
IBM 还确立了自己对 AI 道德规范的观点,制定了
信任和透明原则
,以帮助客户了解其在 AI 对话中的价值观。IBM 有三个核心原则决定了其数据和 AI 开发方法,即:
-
AI 的目的是增强人类智慧。
这意味着我们并不寻求用 AI 取代人类智能,而是提供支持。由于每一项新的技术创新都涉及特定工作岗位供需的变化,因此 IBM 致力于通过投资全球举措,来促进围绕这项技术的技能培训,从而为处于这一转变的工人提供支持。
-
数据和洞察属于其创建者。
IBM 客户可以放心,只有他们才拥有自己的数据。IBM 过去没有也不会向政府提供用于任何监控计划的客户数据访问权限,并且始终致力于保护客户的隐私。
-
AI 系统必须是透明且可解释。
IBM 认为,技术公司需要清楚谁在训练其 AI 系统,训练中使用了哪些数据,最重要的是算法是基于哪些数据生成了建议。
IBM 还确定了
五大支柱
,用于指导负责任地采用 AI 技术。其中包括:
-
可解释性:
AI 系统应该是透明的,尤其是其算法建议的内容,这与具有不同目标的利益相关者息息相关。
-
公平性:
指 AI 系统公平对待个人或个人群体。经过适当校准,AI 可以帮助人类做出更公平的选择,消除人类偏见,并促进包容。
-
稳健性:
人工智能驱动的系统必须积极防御对抗性攻击,最大限度地降低安全风险,让大家对系统结果充满信心。
-
透明度:
为了加强信任,用户必须能够了解服务的工作原理,评估其功能并理解其优势和局限性。
-
隐私:
AI 系统必须优先考虑并保障消费者的隐私和数据权利,并向用户明确保证其个人数据将如何使用和保护。
这些原则和重点领域构成了我们的 AI 伦理方法的基础。如需进一步了解 IBM 关于伦理道德和人工智能的观点,请点击
此处
阅读更多内容。