微信截图_20240920153326.jpg
2000名人工智能专家共同签署宣言只是行为艺术? 禁止“AI杀手”前景不乐观
2018-07-25 07:15:00  来源:新华日报  作者:陈月飞  
1
听新闻

  7月18日,包括美国SpaceX创始人埃隆马斯克在内的2000多名人工智能(AI)领域专家,共同签署了《禁止致命性自主武器宣言》,宣誓不参与致命性自主武器系统的开发及研制。坊间对于这份宣言并不看好,认为对约束AI技术武器化帮助不大,甚至认为这只是行为艺术。这是为何?

  许多著名战役,往往是在两方统帅比谁犯错少中决出胜负的。故此,人们引入了计算机辅助指挥系统、决策支持系统,美国等国已有广泛实战运用。

  战役中人类犯错概率反而更高些。奥巴马时期,美军无人机于2012年1月至2013年2月对阿富汗东北部目标发动持续打击,致死约200人中九成系误伤——问题是无人机是由人类操作手远程操作的,这也是人们在战争各环节引入计算机辅助决策的原因。这就引出了进一步的问题:为不让AI独立决策杀死人类,禁止研究“杀人机器人”有用吗?

  核武器史已经证明,禁止并不现实,尤其是科学家自发性的禁止。症结显而易见:倡议性的条约维持,有赖于科学家个人或科研机构操守。

  和平捍卫者是谁无法由个人来判断。历史也证明,爱因斯坦后悔了。他在1955年3月致劳厄的信中说:“要是我知道这种担忧是没有根据的(指德国的原子弹计划),当初我就不会插手去打开这只潘多拉盒子。因为我对各国政府的不信任,不仅限于对德国政府。”爱因斯坦临终前签署了著名的《罗素-爱因斯坦宣言》,在宣言上签字的11人除罗素外都是著名科学家。

  这个宣言可能和本文开头那个宣言意义差不多,即意义不大。因为科技史证明,倡议性的条约无助于禁止某种武器的研发、生产和扩散。

  一方面,没有大国实质性参与的条约,类似“老鼠给猫戴铃铛”。去年3月27日,联合国开会试图通过《禁止核武器条约》要求“有法律约束力的禁止核武器”,最终促成核武器的全面废止。但该条约形同虚设,因为无任何有核国家参与。而有大国参与的条约,如禁止细菌(生物)及毒素武器的发展、生产及储存以及销毁这类武器的《渥太华禁雷公约》等才得到了实质性执行。

  另一方面,技术的扩散无法禁止。即使在冷战中,各大国也在不长时间内相继拥核。如今信息技术发展迅猛,试图以“行业自律”来实现AI技术不应用于自主作战几无可能。

  如今在中东等热点地区,察打一体无人机已经在实战中广泛运用。近年来的防务展显示,各国研究无人作战载具热情也很高——这可能最接近“杀手机器人”概念了。

  2007年美国国防高级研究计划局(DARPA)举行的超级挑战赛,解决了简单场景下无人车的控制问题,从此谷歌无人车项目才进入快车道。中国陆军也举办有类似的“跨越险阻”比赛,2016年一些参赛车辆已在复杂地形下展示了较强的自主行驶能力。俄罗斯、以色列等国也在大力研究,并纷纷推出实验性平台。

  热情归热情,目前“杀手机器人”研发仍在瓶颈期。目前这些AI平台都不能完全离开人,尤其作战决策还需“人在回路”。俄罗斯率先把无人车投入实战。不过在叙利亚“天王星-9”无人战车表现拙劣,无线传输技术的不可靠及复杂的战争环境,导致这款大号遥控车频频“掉线”。AI自主作战,可能才是无人车实用化的真正路径。

  另外,减少伤亡、精准打击、实时态势感知……每一项AI能够带来的变革,都是指挥官和各军事大国孜孜以求的。这种研发冲动,是一道或几道科学家的宣言遏制不了的。比如参与签订宣言的新南威尔士大学教授托比沃尔什就表示:“如果有人铁心要研发自主武器,我们根本无法阻拦。”从科学家在核武器研发史上的表现可以推论,AI自主决策作战也将会有科学家参与将其最终实用化。如果AI自主决策作战真的威力堪比核武器,更靠谱的还应是科学问题政治解决,寻找一种类似《核不扩散条约》的务实机制,来切实有效管控技术及其扩散带来的危机。 本报记者 陈月飞

标签:宣言;研发;武器
责编:苗津伟 崔欣
下一篇