署名文章

AI商业应用暗藏六大风险

作者:韩微文


AI能够在许多领域保护人们免受已知或未知威胁的伤害,帮助人们保持彼此之间的联系,能以比人工更快的速度、更低的成本完成工作,并可能提供更好的解决方案。但是随着AI逐渐渗入到我们的日常工作和生活中,人们开始意识到AI所带来的一些预期之外的结果,例如人工专业技能的缺失。我们应该如何着手并处理这些问题?


AI六大风险

根据贝恩多年来积累的经验,我们认为,对商业领袖和技术投资者们来说,了解并处理以下六大风险已成为不容忽视的责任:

1.隐形错误

与传统、以规则为导向的程序不同,AI模型通过自我学习提供答案,但却并非完美无缺。很多AI模型的不透明性以及快速扩张的能力有可能将真正的错误隐藏起来。例如,随着自动驾驶和飞行系统的训练数据飞速增长,以这些数据为基础的模型也在飞速进步,但是人们还是能够不断地在算法中发现错误,某些情况下,只有在车毁人亡的悲剧发生后才被发现。

2.技能、判断性思维和理解能力的缺失

这种情况不仅出现在新手出租车司机身上。一位硅谷工程师曾表示他的网站上的推荐算法让他的团队不再投入太多的思考精力,不了解自己业务的基本要素和真正的需求推动因素,对团队来说是一件十分危险的事情。

3.新的灾难

和传统员工一样,AI算法是可以被操纵的。不同的是,员工在被管理层监督的时候自己所能做的决策相对较少,而AI算法可以在暗中自作主张。黑客们对AI的攻击才刚刚开始,随着AI算法发挥作用的领域越来越广(帮助电商平台定价、决定车险费率、招聘等),经理们必须预见算法被人操纵的可能性并及时进行相应的调整。

4.“惯例化”偏见

大多数AI机器是通过研究编辑好的数据样本进行学习的。一位AI专家也许能够理解一套算法是如何得出结论的,或者这对专家来说也如黑箱一般神秘莫测。这就引发了人们对于偏见的担忧,因为任何通过历史数据进行训练的算法,会很自然地在自己的结论中体现出数据中存在的偏见。这可能会导致一些严重的问题,例如歧视性的借贷算法,或是一些误导性的结论,例如从现有客户数据样本进行学习的算法会自然而然地偏向现有客户群的偏好,从而忽略了潜在客户群的口味。

5.缺乏同理心

随着越来越多的企业利用机器人等与消费者进行互动,他们不得不承受与客户日渐疏远的风险。对企业高管来说,用算法代替自己来管理员工,就像让算法控制网约车司机一样,给人一种疏远感。疏远感可能会减少管理者感同身受的能力,弱化他们倾听各个团队的能力。

6.失控

AI驱动的决策体系既方便又快捷,因此非常具有吸引力,但是有时也需要人为参与。现在,无人机执行某些远程任务时必须要进行人为判断,而随着人们对这项技术越来越熟悉,这一状况有可能会发生改变。这是一件好事吗?同样还有很多关于AI削弱人类控制权的难题。对于商业领袖来说,克服这些问题是十分必要的。

贝恩观点@AI

贝恩认为,对于AI来说,控制是关键。企业的最高管理层需要通过参与目标制定,来为被广泛应用于公司业务的AI保驾护航。在过去几十年里,对于信用算法依赖度极高的金融机构被要求要严格管控风险;现在,对于广泛应用AI技术的机构来说,对于AI的监管要求上升到了同样的高度。

在企业中,任何重要的算法都需要有一个产品经理:一个可以检验、检测算法、审计其结果、评估并改善其性能的角色。

另一个不可或缺的是强而有力的沟通体系。在一套重要的算法中,定期向客户、员工和合作伙伴寻求意见和反馈,是一个非常重要的组成部分,在管理和使用任何算法时必须以“同理心”为导向。

AI技术的普遍性和可扩展性,让AI算法可以在很短的时间内影响到上百万人。企业为了应对行业竞争,取得进步,研发并使用AI技术是必不可少的。但是,技术本身不具备道德,也不会进行自我改善,关键依然取决于那些使用技术的人。


韩微文是贝恩公司全球合伙人、大中华区总裁

推荐视频