您当前位置:首页-人工智能的进步-详情

英国最古老的大学是如何保护人类免受危险的人工智能的危害的

编辑:网友投稿来源:互联网整理更新时间:2020-06-06 10:58:47

英国最古老的大学是如何保护人类免受危险的人工智能的危害的

牛津和剑桥,英国最古老的大学,两个世界上最古老的,保持警惕在时下流行的人工智能(AI)领域,被誉为技术将带来一场新的工业革命,正如我们所知,改变世界。

在过去的几年里,每一个有着几百年历史的机构都投入了数百万英镑来研究未来机器可能带来的风险。

聪明的算法已经可以在某些任务上胜过人类。例如,他们可以在国际象棋和围棋等极其复杂的游戏中击败世界上最优秀的人类棋手,而且他们能够比临床医生更快地通过乳房x光检查发现癌症肿瘤。机器还能区分猫和狗,或者仅仅通过看一张人脸照片就能确定一个人的身份。他们还可以翻译语言,驾驶汽车,让你的家保持合适的温度。但总的来说,他们的智商仍远不及7岁孩子的平均水平。

主要的问题是人工智能不能多任务处理。例如,一个玩游戏的人工智能还不能画画。换句话说,今天的人工智能在智能方面非常“狭隘”。然而,谷歌和Facebook等公司的计算机科学家正致力于让人工智能在未来几年更加“普及”,这引起了一些大思想家的深切关注。

博斯特罗姆教授见面

47岁的尼克·博斯特隆生于瑞典,是一位哲学家和博学多才。2005年,他在牛津大学创立了人类未来研究所(FHI),以评估人工智能和其他潜在威胁对人类物种的危险程度。

在研究所的大厅里,白板上潦草地写着多数人无法理解的复杂方程式,旁边是“人工智能安全”和“人工智能治理”等词。其他院系的学生在处理日常事务时,忧心忡忡的进进出出。

博斯特罗姆是个超人类主义者,他相信我们可以而且应该用科技增强我们的身体,以帮助消除衰老这一死亡原因。

他说:“我对研究和思考时间非常谨慎,所以我对安排太多会议有点过敏。”

博斯特罗姆又高又瘦,胡子刮得干干净净。他公开表示,在不那么遥远的将来,机器将成为地球上的老大。他并没有说这一天会在什么时候到来,但是他认为这一天可能已经足够接近我们需要担心的了。

英国最古老的大学是如何保护人类免受危险的人工智能的危害的

博斯特罗姆认为,如果机器拥有人类水平的人工一般智能,它们将很快使自己更聪明,成为超级智能。在这一点上,谁也不知道接下来会发生什么。

乐观主义者说,超级智能机器将把人类从工作中解放出来,让他们生活在某种乌托邦中,那里有他们想要的一切东西。悲观主义者说,他们将决定人类不再是必要的,并将它们全部消灭。亿万富翁埃隆·马斯克与人工智能研究人员关系复杂,他在推特上推荐了博斯特罗姆的著作《超级智能》。

博斯特罗姆的研究所自成立以来已经获得了大约2000万美元的资助。其中约1400万美元来自总部位于旧金山的研究和捐赠基金会“开放慈善项目”(Open Philanthropy Project)。剩下的资金来自像穆斯克和欧洲研究委员会这样的机构。

该研究所坐落在牛津主要购物街旁蜿蜒的公路旁一栋不起眼的建筑里,云集了数学家、计算机科学家、内科医生、神经科学家、哲学家、工程师和政治科学家。

来自世界各地的古怪思想家们来到这里,边喝茶边讨论未来可能发生的事情。博斯特罗姆说:“很多人都有某种博学的头脑,他们通常对不止一个领域感兴趣。”

多年来,FHI团队从4人发展到约60人。博斯特罗姆说:“在一年或一年半的时间里,我们将接近100人。”博斯特罗姆说,该学院的文化是学术界、初创企业和非政府组织的混合体。他说,这形成了一个“充满可能性的有趣创意空间”,在这里有“使命感和紧迫感”。

人工智能的危险

博斯特罗姆表示,如果人工智能以某种方式变得更加强大,它可能会以三种主要方式造成伤害。它们是:

人工智能可以对人类做坏事。

人类可以利用人工智能对彼此做坏事。

人类可以对人工智能做坏事(在这种情况下,人工智能将拥有某种道德地位)。

博斯特罗姆说:“每一种情况都有可能出现问题。”

关于机器对抗人类的问题,博斯特罗姆表示,如果人工智能真的变得强大,那么“人工智能本身就存在一个潜在的风险,即它会做一些与任何人意图不同的事情,从而可能会带来不利影响。”

说到人类利用人工智能对他人做坏事,已经有了先例,因为人类利用其他技术发现来进行战争或压迫。只要看看广岛和长崎的原子弹爆炸就知道了。博斯特罗姆说,研究如何降低人工智能发生这种情况的风险是值得的,他补充说,说起来容易做起来难。

当被问及是否比2014年他的书出版时更担心超级智能机器的到来时,博斯特罗姆表示,时间线缩短了。

他表示:“我认为,过去6年,随着深度学习革命的全面展开,进展比预期的要快。”

当博斯特罗姆写这本书时,世界上没有多少人认真研究人工智能的潜在危险。他表示:“现在有了一个蓬勃发展的小领域,即人工智能安全领域,它与许多团体合作,但发展迅速。”

虽然有可能出现问题,但博斯特罗姆表示,重要的是要记住人工智能也有令人兴奋的好处,他不想被视为预言世界末日的人。

他表示:“我认为,现在没有必要主要强调人工智能的负面影响。”他强调,自己对人工智能的看法是复杂和多方面的。

仔细思考大量的问题

博斯特罗姆说,FHI的目的是“将仔细思考应用到人类的全局问题上。”“该机构不只是着眼于未来一年或未来10年,而是着眼于长远。

博斯特罗姆说:“人工智能从一开始就是我的兴趣所在,我的意思是,可以追溯到90年代。”“这是一个很大的关注点,你几乎可以说是痴迷。”

在博斯特罗姆看来,技术的崛起是导致“人类状况”发生改变的几种可能途径之一。人工智能是这些技术中的一种,但是在FHI有一些小组关注生物安全(病毒等)、分子纳米技术、监控技术、遗传学和生物技术(人类增强)。

英国最古老的大学是如何保护人类免受危险的人工智能的危害的

说到人工智能,FHI有两组;一个是关于人工智能对齐问题的技术工作,另一个是关注随着机器智能变得越来越强大而出现的治理问题。

人工智能校准小组正在开发算法,并试图找出如何确保复杂智能系统按照我们的预期运行。博斯特罗姆说,这需要根据“人类偏好”调整它们。

存在风险

在大约66英里之外的剑桥大学,学者们也在关注人类生存面临的威胁,尽管他们的视角略有不同。

生存风险研究中心(CSER)的研究人员正在评估生物武器、流行病,当然还有人工智能。

“人工智能是最活跃的活动领域之一,”CSER联合创始人马丁•里斯勋爵(Lord Martin Rees)早些时候在三一学院(Trinity College)接受采访时表示。

Rees是一位著名的宇宙学家和天体物理学家,曾于2005年至2010年在著名的英国皇家学会担任总统级。他现已退休,所以他的CSER职位是自愿的,但他仍然高度参与其中。

根据Rees的说法,重要的是任何决定人类命运的算法都可以向人类解释。“如果你被关进监狱或被某个算法剥夺了信用,那么你有权得到一个解释,以便你能够理解。当然,这是目前的问题,因为像AlphaGo (DeepMind的谷歌围棋算法)这样的算法的显著之处在于,程序的创建者并不知道它是如何运行的。这是一个真正的困境,他们意识到了这一点。”

CSER的想法是在2011年夏天,剑桥大学学者Huw Price和Skype的联合创始人Jaan Tallinn在哥本哈根的一辆出租车后座上的一次谈话中产生的。

“我和一名男子共乘了一辆出租车,他认为自己死于与人工智能有关的事故的几率和死于心脏病或癌症的几率一样高,”普莱斯在他与塔林一起乘坐出租车的经历中写道。“我从未见过任何人将其视为如此紧迫的问题——更不用说那些在软件行业脚踏实地的人了。”

英国最古老的大学是如何保护人类免受危险的人工智能的危害的

CSER正在研究人工智能如何在战争中使用,同时也在分析博斯特罗姆等人所写的一些长期问题。它还在研究人工智能如何推动气候科学和农业食品供应链的发展。

CSER执行董事、博斯特罗姆的前同事西恩•奥海格格泰说:“我们试图同时看到这项技术的积极和消极一面,因为我们真正的目标是让世界更安全。”OhEigeartaigh拥有都柏林三一学院的基因组学博士学位,他说CSER目前和FHI正在进行三个联合项目。

外部顾问包括博斯特罗姆和马斯克,以及斯图尔特·罗素和DeepMind的默里·沙纳罕等其他人工智能专家。已故的史蒂芬·霍金生前也是一位顾问。

智能的未来

Leverhulme未来智能中心(CFI)于2016年在剑桥开放,现在它和CSER在同一个建筑里,离剑河上的泛舟船仅一步之遥。大楼并不是中心共享的唯一东西——员工也有重叠,而且有很多研究横跨两个部门。

该中心的联合开发者OhEigeartaigh表示,该中心得到了由资助机构Leverhulme基金会提供的1000多万英镑的支持,旨在支持“创新的蓝天思维”。

真的有必要再建一个这样的研究中心吗?OhEigeartaigh这么认为。他说:“越来越清楚的是,除了技术机遇和挑战之外,还有需要探索的法律主题、经济主题和社会科学主题。”

“我们如何确保人工智能惠及全球社会中的每一个人?”你关注的问题是谁参与了开发过程?咨询是谁?治理是如何工作的?我们如何确保边缘化的社区有发言权?”

CFI的目标是让计算机科学家和机器学习专家与政策、社会科学、风险和治理、伦理、文化、批评理论等领域的人携手合作。因此,该中心应该能够对人工智能给社会带来的各种机遇和挑战有一个广阔的视野。

OhEigeartaigh说:“通过把从不同角度思考这些问题的人们聚集在一起,我们能够找出哪些可能是合理的,值得努力减轻的情况。”
D相关下载
Z最新攻略更多+
热门文章更多+
近期大作更多+