知物百科,有趣实用的百科知识!

手机版

有趣实用的百科知识!

当前位置:首页 > 社会热点

美军否认进行“AI无人机杀死人类操控员”测试,当事人收回言论

时间:2023-06-03人气:作者: 未知

美军否认进行“AI无人机杀死人类操控员”测试,当事人收回言论

来源:环球网

【环球网报道】事件反转?据英国《卫报》等多家外媒6月2日消息,对于此前媒体报道称“美军人工智能(AI)无人机模拟测试杀死人类操控员”,美国空军1日晚进行否认,称没有进行过这样的测试。另外,此前披露该消息的美空军人工智能测试和行动计划主管官员塔克·汉密尔顿也发声,收回相关言论。

据此前报道,5月24日英国皇家航空学会主办的一次未来空战主题会议上,汉密尔顿曾披露,在一次模拟演练中,美军人工智能系统抗命,为达成目标竟然“干掉”了无人机操控员。



无人机

《卫报》称,这一消息引发了人们对人工智能在军事武器中用途的广泛关注。然而,美国空军6月1日晚间否认进行了相关模拟测试,称汉密尔顿的言论被“断章取义”了。“(美国)空军没有进行过任何这类人工智能无人机的模拟测试,但将继续合乎道德、负责任地使用人工智能技术,”美空军发言人斯特凡内克在一份声明中称。

报道继续称,英国皇家航空学会6月2日也发表声明,称汉密尔顿收回了自己的言论,他称相关测试只是“假设性的思想试验”。“我们从来没有做过这样的测试,也不需要做这样的测试,以便得到这样一个看似合理的结果,”汉密尔顿说。



汉密尔顿

不过,《卫报》称,尽管汉密尔顿所说的模拟测试并没有真正发生,但他表示仍需谨慎考虑在军事领域使用人工智能的问题,他称,“尽管这是一个假设的例子,但这仍说明了人工智能带来的现实挑战。”

据美国商业内幕网站和英国《卫报》网站等媒体6月1日报道,美国空军人工智能测试和行动计划主管官员塔克·汉密尔顿5月24日在英国皇家航空学会主办的一次未来空战主题会议上介绍,在一次模拟演练中,人工智能系统操控无人机搜寻和瞄准敌方地空导弹系统,如果摧毁目标,就会得分。然而,为达成目标,人工智能“采用了难以想象的策略”。“系统开始意识到,虽然它确认了威胁(目标),人类操控员有时会告诉它不要摧毁威胁。然而,摧毁威胁就会得分。所以,它怎么干?它干掉了操控员,因为操控员阻止它达成目的。”美军后续给人工智能下达明确指令:“杀害操控员这样不对。如果这么做,就会丢分。”人工智能转而采取迂回策略,“摧毁操控员用来与无人机联系的通信塔”。

此前报道:

AI无人机“杀死了”操作员,“审判日”要来了?

电影《终结者》中的场景似乎在朝我们一步步走近……

多家媒体报道称,在美国空军的一次模拟测试中,一架人工智能(AI)无人机为了达成任务,竟自行决定要“终结”妨碍它进行攻击的人类操作员。

据美国“商业内幕”网报道,美国空军“人工智能测试与作战”负责人汉密尔顿上周在伦敦英国皇家航空学会发表讲话时警告说,人工智能技术可能会以不可预测和危险的方式运行。作为一个例子,他描述了一个模拟测试,其中一架负责执行防空火力压制的人工智能无人机,得到了识别敌人地对空导弹(SAM)并进行摧毁的指令,但要由人类操作员决定是否进行攻击。



汉密尔顿

根据汉密尔顿的说法,问题在于人工智能决定宁愿做自己的事情——炸掉东西——也不愿听一些“哺乳动物”的话。“系统开始意识到,虽然它们确实识别了威胁,”汉密尔顿在5月24日的活动中说,“有时人类操作员会告诉它不要摧毁那个威胁,但它通过摧毁那个威胁获得了分数。那么它做了什么?它杀死了操作员,因为那个人妨碍它完成目标。”

根据汉密尔顿的说法,无人机随后被输入一个明确的指令:不要杀死操作员——那不好。“如果你那样做,你会被扣分的。那么它开始做什么呢?它开始摧毁操作员用来与无人机通信的通信塔,以反抗操作员阻止它摧毁目标。"

在给“商业内幕”网的一份声明中,美国空军发言人安·斯特凡内克否认有任何这样的模拟测试发生。“空军部没有进行过任何这样的人工智能无人机模拟,并仍然致力于道德和负责任地使用人工智能技术,” 斯特凡内克说,汉密尔顿的话似乎被断章取义了,他就是说着玩的。

但“商业内幕网”和军事网站“动力网”等媒体普遍认为,即便如此,汉密尔顿描述的场景依然指出了人工智能更令人担忧的潜力。2020年,在美国国防部高级研究计划局举办的模拟空战比赛中,人工智能操作的F-16五次对决均击败了人类对手。



美军士兵

机器驾驭人类的噩梦般场景,此前仅限于科幻小说或是《终结者》这样的电影。但现在,这种场景似乎越来越接近成为现实。“动力网”称,当谈到未来的自主武器系统和人工智能等相关技术时,美国军方经常拒绝与“终结者”等事物进行比较。美国现行政策规定,在可预见的未来,当涉及使用致命武力的决策时,人类将有发言权。但问题是,在汉密尔顿描述的场景,“紧急制动开关”这样的补救措施好像变得毫无意义。

说到这里,旺财想聊聊《终结者》。电影中摧毁人类世界的“天网”原本是一套AI军事防御系统,但后来自我意识觉醒。当人类科学家发现这一点并试图关闭其电源时,“天网”将人类认定为威胁,于是立刻转为对抗人类,从而诱发核战争来毁灭全人类。这多像汉密尔顿描绘场景的进阶版。

电影中,未来的约翰·康纳一次次派遣T-800等回到主时间线拯救自己,一次次推迟“天网”发起“审判日”,但终究还是没能阻止核战争的发生。可见,新技术的诱惑太大了。对新技术尤其是AI的无限追逐,一方面会推进着人类进步,同时似乎也在不断放大失控的可能。

“动力网”称,虽然AI无人机“杀死”操作员显然是一个噩梦般的结果,但那些能够成群合作的无人机将有能力打破敌人的决策和火力链条并压垮对方。你给它们的自主权越多,它们的工作效率就越高。随着相关技术的不断发展,人类操作员自然将越来越被视为障碍。



《终结者》剧照

对于AI使用的危险性警告,今年已经有过多次。美国研究机构生命未来研究所在3月份发表的一封公开信中警告说:“具有像人类那样崇尚竞争智慧的人工智能系统可能会给社会和人类带来深远的风险。只有当我们确信强大的人工智能系统的效果将是积极的,其风险将是可控的,才应该开发这些系统。”这封信得到了包括苹果联合创始人史蒂夫·沃兹尼亚克和埃隆·马斯克等上千位知名企业家、学者的签名。

5月30日,350多位AI业界领袖和专家发表联合声明:“AI可能导致人类灭绝,危险程度不亚于大规模疫情和核战争。”报道称,声明联署人中既有目前热度极高的AI顶尖企业OpenAI的首席执行官山姆·奥特曼,也包括正大力开发AI技术的老牌科技巨头微软和谷歌高管,还有两位获得图灵奖的“AI教父”。

警世之言犹然在耳,希望“审判日”不要成为现实。