请不要让人工智能成为又一个脱离现实的官僚机构

时间:2020-06-01 20:55:45   作者:
我母亲的房子靠烧油取暖。几年前,她的房子需要一个新的油箱,她的供应商给了她安装一个新的油箱的报价。为了确保她能得到最好的价格,我上网搜索了燃油加热罐。你瞧,在接下来的几个星期里,我被网上关于油加热储罐的报价淹没了。这就好像我每周都要重新储备我的储油罐一样。

这就是人工智能的故事,这就是人工智能的荣耀。有时,它违背常识。更糟糕的是,它可能会抑制企业间自由流动的自发互动和想法。

成功的公司依靠自发性、机缘巧合和精神蓬勃发展——而不是机械化的机器决策,人工智能则依赖于数据输入和机器生成的输出来指导所有级别的决策。虽然以数据驱动企业的方式运营可能会开辟新的前景,但也可能会削弱人类将事物提升到新水平的洞察力。

请不要让人工智能成为又一个脱离现实的官僚机构

波士顿咨询集团(Boston Consulting Group)高级合伙人西尔万•杜兰顿(Sylvain Duranton)提出了这一悖论。他在一次TED演讲中警告称,人工智能一直与创新背道而驰。“过去10年,许多公司一直在努力减少官僚作风,减少核心规则和程序,让本地团队拥有更多自主权,变得更加灵活。”现在他们在推动人工智能,人工智能,而没有意识到酷的技术可能会让他们比以往任何时候都更官僚,”他说。

杜兰顿亲眼目睹了这一悖论。“我领导着一个由800名人工智能专家组成的团队;我们已经为世界各地的大公司部署了100多个定制的人工智能解决方案。“我看到太多的企业高管表现得像过去的官僚。他们想把昂贵的、老式的人类排除在外,只依靠人工智能来做决定。”

他补充道,人工智能天生就像官僚机构一样运作。“官僚主义的本质是喜欢规则和程序,而不是人类的判断。如果人类的判断不被掌握,人工智能将带来一种可怕的新型官僚体制——我称之为“政府统治”,人工智能将根据人类无法控制的规则做出越来越多的关键决定。”

官僚政治的结果可能是毁灭性的——当危机来临时,会影响大学录取、飞机性能或供应链问题。这就是为什么人工智能决策需要有人类的参与。

应该补充的是,它需要人类来设计具有前瞻性的流程和公司——人工智能之类的工具只是工具——这些工具将有助于实现事情的发生。与许多技术创新一样,人们往往认为,将人工智能投入一个奄奄一息、僵化的组织,其洞察力和盈利能力就能神奇地解决问题。

人工智能应该作为“辅助”智能来支持人类的决策——而不是反过来。305年的一项调查显示,高管由2018年《福布斯》的见解,只有16%的人表示他们在低级完全信任决策(例如,萎靡不振的错误,发送通知,接受支付管理系统性能)由人工智能,而且只有百分之六有充分的信任在中层决策(例如,帮助客户的问题,作为智能代理的员工)。然而,在大约同一时间进行的另一项调查中,只有37%的人在他们的人工智能系统产生可疑或不令人满意的结果时,有适当的程序来增加或推翻结果。(这两项调查的设计和作者都是我与《福布斯》Insights合作的一部分。)

杜兰顿在演讲中呼吁,人们需要参与到人工智能的决策过程中来,他称这一公式为“人类+人工智能”。“这个过程的公式是将10%的精力投入到编码算法上,并将20%的精力投入到围绕算法构建技术、收集数据、构建用户界面、集成到遗留系统中。”“但70%的努力,也就是大部分的努力,是关于将人工智能与人和流程结合在一起,以实现真正结果的最大化。”

杜兰顿说,70%的人类元素需要合作。“第一步是确保数据科学家和领域专家一起对算法进行编码。70%的人工智能与团队和流程相结合,也意味着为人类和人工智能建立强大的接口,共同解决最困难的问题。”

这个公式已经在他的实地工作中得到应用——例如,研究小组与医生一起使用一种新的药物来监测心脏病发作的风险——大约有40%的病人使用这种药物。“如果算法这样说,你会舒服地呆在家里第一次注射吗?””他问道。“医生不…从70%开始。四个月后,杜兰顿的团队和医生们建立了一个模型,将人工智能与人类判断结合起来,“大大减轻了一半患者的压力,提高了生活质量”。

“70%的人类参与”还意味着人类必须决定什么是对的,什么是错的,并为人工智能能做什么或不能做什么制定规则,比如设置价格上限,以防止定价引擎向未受过教育的客户收取高得离谱的价格,而这些客户会接受它们。只有人类才能定义这些界限——人工智能无法在过去的数据中找到它们。”
声明:本文内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:123456789@qq.com 进行举报,并提供相关证据,工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。