明升手机版(中国)

 
作者:赵熙熙 来源: 发布时间:2018/4/10 9:30:54
选择字号:
联合国召开会议讨论“杀手机器人”问题
人工智能界抵制韩美自主武器研发

 

本报讯 来自29个国家的57位app家日前呼吁联合抵制一所韩国大学,因为设立在该校的一个新的中心旨在利用人工智能强化国家安全。人工智能app家表示,该大学正在开发自主武器,又称“杀手机器人”,而该大学官员则表示,这项研究的目标是改善现有的防御系统。

2月20日,位于大田的韩国先进app技术研究院(KAIST)庆祝其新的国防和人工智能融合研究中心成立。一个已经被该校删除的网页宣称,将与韩国韩华系统公司联合运营该中心,其目标是“基于人工智能的命令和决策系统,为海底大规模无人驾驶机器人提供组合导航算法,基于人工智能的飞机训练系统,和基于人工智能的对象跟踪与识别技术”。

人工智能迅速发展给社会各个领域带来深远影响,对军事作战系统研发也带来全新理念。然而,人工智能界的专家学者及防务分析人士认为,机器人暴动仅是科幻小说式的终极噩梦,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌与否,才是人们亟须担忧和讨论的现实问题。

澳大利亚悉尼新南威尔士大学计算机app家Toby Walsh发起了这次抵制活动,他担心这项研究将被应用于自主武器,包括无人驾驶飞机或潜艇、巡航导弹、自主操作的防卫机枪或战场机器人。

“令人遗憾的是,像KAIST这样的知名机构似乎在加速军备竞赛,以开发这种武器。”抗议者在一封公开信中这样表示,“因此,我们公开宣布,我们将抵制与KAIST的任何部门进行合作,直到KAIST的院长作出保证——我们一直在寻求但没有得到,该中心将不会开发缺乏有意义的人类控制的自主武器。”

KAIST院长Sung-Chul Shin准备了一份声明,排除了开展此类活动的可能性。他说:“我很难过地听到有人宣布因为要研制杀手机器人而抵制KAIST。我想重申,KAIST并不打算参与开发致命的自主武器系统和杀手机器人。在应用包括人工智能在内的所有技术方面,KAIST都清楚地意识到伦理问题。”

这封抗议信并没有定义何为“有意义的人类控制”,但这句话经常被解释为把扳机放在一个人的手里。联合国《特定常规武器公约》政府专家小组4月9日在瑞士日内瓦召开会议,预定讨论致命自主武器系统研发,也就是常说的“杀手机器人”可能带来的影响。

Walsh说,他对Shin的声明感到振奋。“很高兴看到KAIST首次公开承诺进行有意义的人类控制。这将增加联合国讨论的分量。”

新美国基金会研究人员、防务政策分析人士辛格在其著作《连线战争:21世纪机器人革命和冲突》中指出,地缘政治、知识前沿领域不断前进的动力甚至是追求利益的科技企业,都是人工智能发展不可阻挡的力量。简单来说,大部分人现在最感到恐惧的是该不该让能够“思考”的人工智能系统决定是否杀人。

新美国安全中心技术和国家安全项目主管沙雷表示,自主武器系统可能因代码问题或黑客攻击而失灵,机器人攻击人类部队,人类无法作出反应或局部局势迅速升级的情况都有可能发生。

美国亚特兰大市佐治亚理工学院计算机app家Ronald Arkin说,由于在一个实验室里可能发生的研究而抵制整个大学在我看来似乎“有点极端”。

同时,一封公开信已在美国谷歌公司内部流传数周,超过3000名谷歌员工签名要求公司退出一项美国五角大楼人工智能军事计划。

美国五角大楼“梅文计划”始于2017年,旨在找到加速军方应用最新人工智能技术的方式。尽管五角大楼和谷歌都表示,谷歌的产品不会创造出无须人类操作者就能开火的自主武器系统,但谷歌员工在公开信中说,参与“梅文计划”将对谷歌的品牌和人才吸引力造成不可挽回的伤害,谷歌不应被卷入战争,谷歌及其合约商永远不应该发展战争科技。(赵熙熙)

《明升中国app报》 (2018-04-10 第2版 国际)
 
 打印  发E-mail给: 
    
 
以下评论只代表网友个人观点,不代表明升手机版(明升中国)观点。 
���� SSI �ļ�ʱ����
相关手机版 相关论文

图片手机版
>>更多
 
一周手机版排行 一周手机版评论排行
 
编辑部推荐博文

 
论坛推荐