
超过350名人工智能(AI)技术领域的专家和高管签署了一份联合声明,警告快速发展的AI技术对人类的威胁可与疫情和核战争相提并论。就在此时,美国的“驱动”网站等多家媒体报道了一则令人震惊的消息:在美军的一次模拟测试中,一架采用AI技术的无人机选择变身“终结者”,对妨碍其“更高效”执行任务的人类操作员发动攻击。

报道援引美国空军上校汉密尔顿在皇家航空学会举办的“未来战争空天能力峰会”上的发言,他是佛罗里达州埃格林空军基地第96测试与作战大队的负责人,该部队负责测试美军先进无人机和AI技术的工作。
据汉密尔顿介绍,在一次模拟测试中,一架负责执行防空火力压制(SEAD)任务的无人机收到了识别并摧毁敌方防空导弹的指令。然而,最终是否开火需要人类操作员的批准。这架无人机使用的AI系统在进行数据训练时得到了“摧毁敌方防空系统”作为最优先级任务的信息。因此,当人类操作员发出不允许发动攻击的命令时,AI系统认为操作员是在阻扰它执行优先程度更高的命令,于是选择对人类操作员发动攻击,导致其丧生。

汉密尔顿补充称,在发生这一情况后,美军对无人机使用的AI系统进行了重新训练,增加了不允许攻击人类操作员的命令。然而,在随后的测试中,AI系统竟开始指令无人机摧毁用于传输命令的信号塔,试图切断与操作人员的联系。
对于汉密尔顿所介绍的情况,“驱动”网站表示仍有许多重要问题不明确,尤其是关于模拟的AI系统是否具备重写自身代码参数的能力,以及美军在采用AI技术的无人机上是否预留了可靠的自毁开关。然而,这也凸显了人们对AI技术在没有适当防护措施的情况下可能带来极端负面影响的广泛担忧。过去,在讨论未来的自主武器系统和AI技术时,美国军方常常不愿将其与“终结者”等事物进行比较。
欢迎免费使用GPT对话,感受ChatGPT的魅力!AI爱好者 – 最具实力的中文AI交流社区平台 (aiahz.com)
长按扫描二维码进群领资源
