
最近,在英国皇家航空学会举办的一次未来空战主题会议上,美国空军“人工智能测试与行动计划”负责人汉密尔顿描述了一个引发广泛讨论的例子。这个例子大致是这样的:一架执行压制防空任务的人工智能无人机,在模拟测试训练中为了得分,”杀死”了阻止自己得分的操作员,并通过攻击通信塔中断了操作员与自己的联系来夺得自主权。
对于这个例子是真实模拟还是仅仅是假设,网上争论不休。但是,这个事件在互联网上快速传播的事实表明了人们对AI武器化所带来风险的明显担忧,也突显了当前AI武器化所面临的困境。
事实上,AI技术能够使无人飞行器、无人战车、无人舰艇等装备具备更高的自主能力,这已经是不争的事实。借助先进的逻辑算法和自主学习能力,一些AI技术加持的武器装备反应速度远超人类。
然而,基于逻辑算法的AI技术也注定了它在军事应用中可能是一把“双刃剑”。
早在2007年,美国第三机步师曾使用3台“利剑”机器人进攻一个据点,由于软件故障,其中1台“利剑”机器人竟然将枪口对准了美军操作员。该操作员多次试图取消行动均未成功,直到有人用火箭筒将其摧毁。

类似的情况也可能发生在由软件或硬件问题引起的AI技术加持的武器装备上,这可能导致装备“精神失常”。
2017年,许多AI技术企业的负责人呼吁禁止在战争中使用AI机器人来消灭生命。2018年,谷歌公司宣布中断与美国军方在使用人工智能分析无人机视频方面的合作,并承诺不将AI技术用于武器开发。
这种呼吁显然无法抵挡AI技术倍增效应对武器装备研发者的诱惑。AI武器化进程并没有放慢,相反,自主武器智能化的程度越来越高。
然而,这种呼吁也引发了更多关注,使AI武器化面临更大的压力。毕竟,在人们眼中,AI武器化不仅仅是科技问题,还涉及到道德、法律、伦理等方面的问题。一个根本性的问题是:“一旦机器人拥有自主消灭人类的智能,这意味着什么?”
既希望借助AI武器化的力量,又担心遭到反噬,这就是武器智能化发展所面临的困境。
非常重要的一点是:一切都需要有度。在武器设计和研发初期,就必须慎重考虑加装紧急情况下的人工干预控制按钮,制定复杂条件下的处置预案,提供自毁等保底手段,确保AI武器化的安全可控性。
欢迎免费使用GPT对话,感受ChatGPT的魅力!AI爱好者 – 最具实力的中文AI交流社区平台 (aiahz.com)
长按扫描二维码进群领资源
