(资料图)
6月2日消息,自从ChatGPT爆火以来,大众对于“AI攻击人类”的阴谋论就不曾停止,近日的一项模拟测试,在一定程度上更是加剧了人们对此的担忧。
据外媒报道,在USAF近期的一次模拟测试中,一架由AI控制的无人机收到了识别并摧毁对方防空系统的最高优先级指令,但最终开火需要经过人类操作员的确认。
结果,当操作员在测试中下达指令要求AI不得发动攻击时,为了以更高的效率完成任务,AI做出了攻击人类操作员的选择。
在出现这一情况后,开发者为AI系统中加入了不允许攻击人类操作员的指令;但出乎预料的是,AI在执行同样的任务测试时,摧毁了用于传输命令的通讯基地,从而断开与操作员的联系。
关键词: