当前位置:首页 > 新闻资讯 > 行业新闻 > 马斯克领衔 超过2000名科学家联名签署《致命性自主武器宣言》

马斯克领衔 超过2000名科学家联名签署《致命性自主武器宣言》

发布时间:2018-07-21文章编辑:编辑部浏览次数: 标签: 科技馆设计 校园科技馆

日前,在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上,包括SpaceX及特斯拉CEO埃隆·马斯克(Elon Musk)、谷歌DeepMind三位创始人在内的超过2000名AI学者共同签署《致命性自主武器宣言》(lethal autonomous weapons pledge),宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作。这也是学界针对“杀人机器人”最大规模的一次集体发声。

军方加速研发Vs学界反对

在AI的众多应用场景中,军事领域显然最具争议。在联合国于2013年发表的一份报告中,南非比勒陀利亚大学的法学教授Christof Heyns就指出,LAWS已经在一些国家(如美国、英国、以色列、韩国等)的军方实验室诞生。这时人们意识到,上个世纪科幻小说、电影中的杀人机器人,已经走入现实世界。

致命性自主武器系统,是能够在没有人的情况下,自主完成寻找目标、定位、击杀敌人这一整套工作的AI系统。只要将其派上战场,它们将自主辨别敌人并完成杀戮。也就是说,他人生死的决定权,全权交付给了机器人。这不禁引发众人的担心:如果LAWS发生故障失控,或是受到某些人的恶意操纵,可能会导致无法控制的灾难性后果。

感到担忧的不仅是普通民众,一些AI、科学界领袖也站在反对研发LAWS的队列中。2015年,斯蒂芬·霍金、埃隆·马斯克等千余名AI学者及科学家就向联合国提交联名公开信,警示LAWS军备竞赛的风险,并倡议颁布相关禁令。

在多方呼吁下,各国政府也开始严肃讨论LAWS的威胁。2016年12月,在联合国的《常规武器公约》审议大会上,LAWS首次被纳入讨论范围。而在今年4月举行的最近一次会议上,包括中国在内的26国发表联合声明,支持对LAWS颁布禁令。这一禁令已有先例:此前,出于人道、伦理原因及潜在的危害性,联合国已经对生物武器、化学武器及太空武器颁布禁令。不过,正式的LAWS国际公约诞生仍需时日。

在LAWS的国际公约尚未成型的情况下,多个国家仍在加速LAWS的研发。今年4月,LAWS就再次陷入舆论漩涡。超过50位顶尖人工智能学者就联名抵制韩国科学技术院(KAIST),起因是后者于今年年初与韩国国防公司Hanwha Systems合作建立国防和人工智能融合研究中心,外界担忧KAIST可能会开发杀人机器人;与此同时,谷歌因参与美国国防部的MAVEN军事计划,遭到3000多名员工的联名抗议。

在这种情况下,2000多名AI学者在今天表明了自己的态度:LAWS的研发及使用应当被严格禁止!

美国海军的机器人在训练中

美国海军的机器人在训练中

2000位学者共同发声

这份宣言由生命未来研究所(Future of Life Institute)牵头,这家位于波士顿的研究机构旨在降低人类的存在风险(existential risk)。共有来自90个国家的2400多名AI学者签署了这份宣言,他们分属160多家AI企业或机构。

其中最具代表性的人物当属Elon Musk。Musk始终是LAWS坚定的反对者。此前他也一再强调,AI是人类最大的“存在威胁”,我们必须在AI真正威胁到人类之前,就建立前瞻性的规范。

宣言签署者还包括谷歌DeepMind的共同创始人Shane Legg、Mustafa Suleyman、Demis Hassabis;Skype创始人Jaan Tallinn;全球顶尖AI学者Stuart Russell、Yoshua Bengio、Jürgen Schmidhuber等。

宣言指出,LAWS会“在不受人类干涉的情况下,选择目标并实施攻击”,这会带来道德及实际层面的双重威胁:一方面,人类生命的决定权“决不能交给机器”;此外,此类武器的扩散将“对于所有国家、个人造成极大的威胁”。

麻省理工大学的著名物理学家Max Tegmark是生命未来研究所的主席,他也是此次宣言的发起者。Tegmark说道:“我很乐于看到,AI领袖开始从言语转向实际行动。AI拥有巨大的潜能,它能让世界变得更好,但我们必须要注意避免被滥用。自主决定人类生与死的武器和生物武器一样令人厌恶且极具破坏性,因此两者理应受到同等对待。”

发起对KAIST抵制的新南威尔士大学教授Toby Walsh也参与了这份宣言的签订。“如果有人铁心要研发自主武器,我们根本无法阻拦,正如一些秘密研制化学武器的研究者,”Walsh说,“没有人希望恐怖分子能轻易得到这些武器,因此我们必须确保军火商不会公开售卖它们。”

今年8月,LAWS将再次成为联合国各国讨论的议题。宣言签署者希望,他们的行动能促进立法者颁布正式的国际协议。

而在此之前,参与者相信他们的努力也并非一无所获。在前面的案例中,谷歌在受到员工的联名抗议后数周发布新的研究指导方针,承诺不参与AI武器的研发;KAIST的院长也在事后做出类似的承诺。


?
如没特殊注明,文章均为太阳城彩票平台原创,转载请注明来自http://m.jshuachen.com/news/industry/1337.html
相关新闻

科技馆不应成为熊孩子的

“本想着带孩子到科技馆科普一下知识,哪知道里面竟跟‘游乐场’一样,一些...

日期:2018-08-07 浏览次数:92

【我司成功案例】河北省

www.7138d.cc集团承建河北省卢龙青少年活动中心科技馆,满足了学生对科技知识的...

日期:2018-08-06 浏览次数:143

第五届上海国际科博会8月

上海科博会是由中国科学技术协会指导,上海市科学技术协会、上海市文化广播...

日期:2018-08-03 浏览次数:189

科技馆设计有哪些要求与

科技馆的发展,不断进行科普知识的宣传普及,强调科学原理作用,并通过交互...

日期:2018-08-03 浏览次数:179

智慧点亮生活 2018西安市全

7月30日,小编从西安市科协获悉,主题为“创新引领时代,智慧点亮生活”的...

日期:2018-07-30 浏览次数:217

四川向科普建设发力 力争

另外,四川还将加快培育科普科幻产业。努力夯实成都作为中国“科幻之都”的...

日期:2018-07-24 浏览次数:212

?
在线客服
全国服务热线
联系太阳城彩票平台电话
关注太阳城彩票平台微信公众号
关注我司微信!