据影片,战争终究是“进步”到了用智能机器人杀人的阶段。

类似于任何不人道或是大规模杀伤性的武器,唯有通过有力的公约才能阻止这个进程。

因为在现在这个初始阶段,一个国家不自己努力发展用智能机器人杀人的能力,就意味着在未来的战争中被屠杀。

而人类会在多惨痛的教训之后才能真正达成有效的公约,对此进行约束呢?

另外,按影片的描述,如果有两股势力都越来越依赖AI自动行为或是参谋建议进行反击,那可能一个小小的擦枪走火,就会因为AI反击逐渐升级的正反馈调节,最终导致一场大的战争灾难。