企业面临着利用人工智能创造价值的巨大压力。虽然这意味着寻找应用该技术的创新方法,但首席信息官和其他企业 IT 领导者还需要考虑其道德使用和风险管理。如果他们忽视这块拼图,他们就会承担风险。
“你会遇到值得信赖的问题、公平的问题,然后坦率地说,你会面临一些相当严重的损失,”数字化转型公司 Sutherland 的首席信息官兼首席数字官 Doug Gilbert 告诉《信息周刊》。
随着人工智能法规的不断推出以及与人工智能使用相关的不良结果曝光,企业面临罚款和诉讼的可能性。降低这种风险意味着现在就定义道德人工智能,将其集成到企业范围的框架中,并确保其得到统一应用和维护。
定义道德人工智能
很容易说道德人工智能意味着“做好事”或“不伤害”,但这在实践中实际上是什么样子的?首先要认识到人工智能伦理没有一个统一的定义。
“这取决于你的价值观、你的成长经历、你的环境、你作为一个人的身份,”全球企业软件公司 IFS 的首席信息官 Helena Nimmo 说。“试图达成一个共同的框架将是一个挑战,这需要大量的谈判。”
但这种谈判可以植根于被广泛认为对人工智能伦理至关重要的基本原则:公平、透明、问责制和隐私。
“当你查看道德框架是什么样子时,它是两页还是 100 页并不重要。在我看来,它必须有这四个词,“她说。
不同行业的领导者在研究特定的人工智能用例时可能需要考虑不同的问题。例如,医疗保健组织的首席信息官可能特别关注人工智能的隐私方面。组织在保护敏感患者数据方面是否做得足够?另一方面,制造公司的首席信息官可能会考虑很多人身安全。人工智能的应用方式是否能够确保生产线保持运转并保护人类工人免受伤害?
构建框架
人工智能道德可能会让人感到不知所措,但首席信息官不需要从头开始构建企业框架。他们可以从众多现有框架中汲取灵感,并从适用于其运营所在司法管辖区的法规中获取线索。
“公司正在自己构建框架,”Nimmo 说。“他们正在挑选和寻找最好的。”
道德可以构成企业整体人工智能治理整体方法的基础。
“如果你想在公司和你的政策中拥有良好的安全性......你在制定政策时就考虑到了安全性,然后你就做到了,”吉尔伯特说。“人工智能道德已经变得完全相同;它是一个基本支柱,然后这个基本支柱制定了你的人工智能。
与安全策略一样,人工智能策略不能使用“设置并离开”的方法创建。它们需要进行修订和更新,以跟上技术的快速发展。
首席信息官必须确保审计正在进行中。用于训练模型的数据从何而来?结果是公正的吗?人工智能模型是如何做出决策的?这些决定是否造成伤害?企业在使用 AI 时是否维护数据隐私?领导者是否确保每个人(包括他们自己)都对组织的道德人工智能框架负责?
随着人工智能越来越融入企业,首席信息官将发现自己需要解决新问题。Nimmo 指出人工智能的人性化是一个新兴的考虑因素。企业越来越多地采用聊天机器人和虚拟代理,并像对待员工一样对待他们。
“[如果]你注意到你的一位虚拟同事总是出错怎么办?”尼莫问道。“你向谁抱怨?这是人力资源问题吗?这是 IT 问题吗?你怎么处理?
CIO 需要更新企业框架来解决此类问题。
确保企业支持支持
企业范围的计划——无论是与安全、文化、人工智能还是三者相关——都从最高管理层开始。
可能是首席信息官带头定义和应用道德人工智能,但餐桌上的每个人都需要参与对话。企业领导层需要在平衡交付成果的商业压力和不道德使用人工智能的风险方面达成共识。
“我们都有责任确保我们正在考虑这些大事,”尼莫说。“我们通过思考这些艰巨的巨大挑战而获得报酬。”
领导者需要参与利益相关者管理,以确保从高级领导者到新员工的每个人都了解如何在组织商定的框架内使用人工智能。事实上,Nimmo 认为将这个年轻群体纳入人工智能伦理对话尤为重要。
“当我们处理真正新的改变世界的技术时,比如人工智能,让年轻的声音参与进来,”她说。“听听他们要说的话,因为他们将成为要么获得好处的人,要么不会获得好处。”