华乐网
当前位置: 首页 >头条 >科技 >正文

科学家们呼吁禁止杀人机器人,微型自杀性机器人杀戮防不胜防

2018-04-18 13:25    

人工智能专家们制作了一部七分钟的电影,描绘了一个可怕的未来,在那里微型杀手无人机被设定为进行大规模杀戮。

这段视频是由一个名为“阻止杀手机器人”的宣传组织制作的,视频显示了手掌大小的无人机,配备了爆炸物,在没有人监督的情况下发现和攻击人。

这些微型无人机可以以无情的效率杀人,而活动人士警告称,要阻止一个可怕的大规模杀伤性武器的新时代,必须采取先发制人的禁令。

超过100个国家参加了一些常规武器的国际公约,这些武器将在今天的日内瓦就一项被称为“杀手机器人”的禁令进行辩论。

《卫报》报道,在这部即将在《公约》(convention)上播放的影片中,机器可以在演讲厅中发现活动人士,并通过将炸弹推入他们的头部来杀死他们。

这部名为《杀戮机器人》的电影由一个开发新技术的开发者开始,他说这些无人机的反应速度比人类快100倍。

他说,这些无人机有广泛的现场摄像头、人脸识别、特殊传感器和形状炸药。

他说,“让我们看看武器做决定”,声称他们能穿透人群,汽车列车和躲避子弹。

然后,视频从开发者的演示中消失,并开始模拟在攻击后可怕的破坏的新闻故事。

专家警告说,这种未来的设想可能会发生,除非我们停止开发这种可能对人类安全造成毁灭性打击的无人机。

加州大学伯克利分校(University of California in Berkeley)的著名人工智能科学家斯图尔特·罗素(Stuart Russell)将成为这部电影团队的一员。

拉塞尔博士说,发展致命的自主武器将极大地减少国际、国家、地方和个人安全。

他说,影片中的技术只是整合了现有的能力。

这不是科幻小说。事实上,它比自动驾驶汽车更容易实现,因为自动驾驶汽车需要更高的性能标准。

在为期5年的审查会议上,123个国家准备同意将他们的努力正式化,以应对武器系统所带来的挑战,这些武器系统将在没有人类控制的情况下选择和攻击目标。

军方一直是人工智能技术的最大资助者之一,他们制造了能够扫描视频图像的机器人,其精确度比人眼还高。

现在专家警告说,这种技术是如此先进,无人机可以携带炸药来杀人,而不需要人类控制员来进行最终的解释。

在日内瓦的政府会议为阻止杀手机器人的发展迈出了重要的一步,但没时间再失去了,史蒂夫·古斯,人权观察组织的首席执行官,他是阻止杀手机器人运动的联合创始人之一。

一旦这些武器存在,它们就不会停止。

“现在是采取先发制人的禁令的时候了。”

今年8月,机器人和人工智能专家签署了一封公开信,要求联合国禁止在国际上使用此类武器。

在116个签约国中,特斯拉创始人埃隆·马斯克(Elon Musk)和穆斯塔法·苏莱曼(Mustafa Suleyman)是谷歌深度思维的应用AI公司的负责人。

他们警告说,这些武器,包括致命的微型无人机,正处于发展的边缘,有可能制造全球不稳定。

信中写道:“一旦发展起来,他们就会允许武装冲突比以往任何时候都更激烈,而且在时间上比人类快得多。”

“这些武器可能是恐怖武器,是暴君和恐怖分子用来对付无辜民众的武器,武器也会以不良的方式受到攻击。”

“我们没有足够的时间来采取行动。”一旦这个潘多拉的盒子被打开,它将很难关闭。

专家说,技术允许一个预先设定好的机器人可以射杀,或者一个坦克向一个没有人参与的目标射击,这只是几年的时间。

裁军谈判会议将开启为期5天的武器谈判,但呼吁禁止武器的人将不会满意。印度大使Amandeep Gill正在主持会议。

“只制定一项禁令是很容易的,但我认为……”他在接受记者采访时说:“在一个非常复杂的问题上匆忙前进是不明智的。”

“我们只是站在起跑线上。”

他说,这一讨论还将包括民间社会和科技公司,将部分关注于了解正在进行的武器类型。

吉尔表示,各国之间达成了一项协议,即“人类必须对涉及生命和死亡的决定负责。”

但是,他说,人们对“人类控制”必须控制致命武器的机制有不同的看法。

负责维护冲突法律的红十字国际委员会(International Committee of The Red Cross)也没有呼吁颁布禁令,但强调了限制自主武器的必要性。

国际红十字会武器部门的尼尔·戴维森告诉法新社,“我们的底线是,机器不能适用法律,你不能将法律决定的责任转移给机器。”

他强调了武器系统的问题本质,即在攻击的时间或地点方面存在着主要的变数——例如,部署了多个小时,并在探测到敌方目标时进行编程。

他说:“当你启动这个武器系统时,你有一定程度的不可预测性或不确定性,那么你就会开始遇到法律上的问题。”

品牌、内容合作请点这里: 寻求合作 ››

榜单

今日推荐