AI|“AI战争”背后的冷思考


AI|“AI战争”背后的冷思考文章插图
AI , 即人工智能 , 是当前科技领域大热的一个概念 。 由于它是一门研究开发用于模拟、延伸和扩展人类智能的新兴技术 , 可以说 , 未来只要是需要人类智能参与的领域 , 都可能由AI替代完成 。 而战争自古以来就带着“残酷”标签 , 是人类顶尖技术、智力和体力的角斗场 。 由此看来 , 在战争中广泛发展和应用AI技术再合适不过了 。
【AI|“AI战争”背后的冷思考】随着数据挖掘技术、大规模并行算法等不断发展完善 , AI技术如虎添翼 , 越来越多地应用在军事领域 。 虽然现阶段AI技术还不能像人类一样进行初创 , 但它可以对人的意识、思维进行模拟 , 能按照人类的设定进行思考 , 在执行繁重任务时表现甚至要超过人类智能 。 尤其是在语言、图像的识别和处理方面 , AI技术具有得天独厚的优势 。 因此 , 在情报、决策与作战一体化领域 , AI技术应用广泛 。
不过 , 人类并不满足于AI技术在战争中的“软应用” 。 战争中的流血牺牲已经对人类造成了很大的创伤 , 那么AI技术能否替代人类直接进行作战 , 从而将人类彻底从炮火硝烟中解救出来呢?于是 , 能够自主作战的军用机器人应运而生 。
这类机器人属于致命性自主武器系统 , 目前各国发展的无人飞行器、无人战车、无人舰艇等能够自主遂行战斗任务的武器系统 , 基本都属于这一范畴 。 由于这类装备能够在无人控制的情况下 , 自主搜索并消灭目标 , 自身的机械机构又拥有远超人体的性能 , 因此特别适合在恶劣环境中执行攻坚任务 , 体现出较高的军事应用价值 。 这也是当前AI技术在军事领域最主要的“硬应用” 。
然而 , AI技术是一门极富挑战性的科学 , 它不仅涉及计算机技术、心理学 , 甚至还涉及哲学领域 , 受到法律和伦理道德的多重约束 。 毕竟 , “由人类创造的机器人拥有自主消灭人类的能力” , 这本身就是对伦理的拷问 。 2018年4月 , 联合国《特定常规武器公约》政府专家小组就曾专题研讨过“杀人机器人”可能带来的影响 。
除了伦理层面 , AI军用机器人自身软件和硬件的可靠性也不容忽视 。 早在2007年 , 美军第三机步师的一台“利剑”机器人由于软件故障 , 竟调转枪口对准美军操作员 , 而且无论操作员如何发出“取消”指令都无济于事 。 最后 , 还是靠着一枚火箭弹将机器人摧毁 , 才结束了这次闹剧 。
由于AI技术涉及机器视觉、生物识别、自动规划、智能控制等方方面面 , 机器人很有可能在复杂环境或执行复杂指令时出现失控现象 。 特别是在AI技术尚在发展阶段的今天 , 这种隐患更难避免 。
AI失控事件确实给人类敲响了警钟 。 人们担忧 , 如果把自主控制权完全交给AI , 会不会出现影视作品中的“终结者” , 严重威胁到人类自身的生存呢?2017年人工智能国际会议上 , 不少AI技术企业负责人纷纷呼吁 , 应该像禁止生化武器一样 , 禁止在战争中使用AI机器人消灭有生力量 。
其实 , AI技术在军事领域的运用到底利弊几何 , 答案还要看人类自己的选择 。 正如霍金所言:“AI技术是好是坏 , 我们依然不能确定 。 但我们应该竭尽所能 , 确保其未来发展对我们和我们的环境有利 。 ”
来源: 解放军报