AI已被用来杀人!傅莹谈智能武器:人类须早些达成治理共识

12月18日 , 清华大学人工智能合作与治理国际论坛在北京举行 。 清华大学人工智能国际治理研究院名誉院长傅莹作主题发言时谈到了智能武器问题 。 她表示 , 人类需要充分认识智能武器的风险 , 早些达成治理共识 。
AI已被用来杀人!傅莹谈智能武器:人类须早些达成治理共识文章插图
傅莹在论坛上发言 。 图自主办方 。
人类应尽早达成智能武器治理共识
“技术革命往往伴随不可预知的安全挑战 , 在这方面 , 国际关注的焦点之一是智能武器的道德和技术风险 。 ”傅莹说 , 清华大学战略与安全研究中心与多家国际机构围绕这个问题开展了研讨 , 以结合国际军控经验 , 寻找管控智能武器风险和国际安全治理的路径 。
近年来 , 智能武器已从科幻作品走入现实 。 南都·AI前哨站梳理发现 , 在今年爆发的阿塞拜疆与亚美尼亚冲突中 , 阿塞拜疆便使用了杀伤力极强的无人机 。 而不久之前 , 一名伊朗核科学家遇刺身亡 , 据媒体报道 , 杀害他的是一台由卫星控制、具有人脸识别功能的机枪——遇刺时坐在车内的科学家脸部连遭13枪射击 , 距他仅有25厘米的妻子却没有中弹 。
傅莹介绍 , 智能武器可能带来三个方面的风险 。 一是由于人工智能技术不完善 , 智能武器可能导致更大的连带伤害 。 二是智能武器的训练需要大量数据 , 数据的污染和形成的偏见可能导致严重后果 。 三是人机协同的挑战 , 机器在可解释性、学习性、常识性等方面的不足有可能放大发生冲突的风险 , 等等 。
她指出 , 既然人工智能武器化不可避免 , 专家们研究的方向是寻找合适的治理路径 。 “大家都认为 , 人类必须汲取历史教训 , 例如对核武器的治理共识就发生的太晚 , 导致人类曾经面临巨大威胁 , 互联网的治理也没有能够在早期实现 。 大家希望这次对人工智能 , 尤其是智能武器的治理 , 人类能走在技术变革的前面 , 充分认识其风险 , 早些达成治理共识 。 ”
傅莹说 , 专家们还提出 , 需要采取军事克制态度 , 限制智能武器的损害范围 , 这一点也需要反映在公共教育当中 。 在路径方面 , 最重要的是如何使智能武器的发展和使用与现行国际法基本原则保持一致 。 有中方学者主张建构关于人工智能军事行动的国际规范 , 切实保证人在智能武器使用中的决定性作用等等 。
“诚然 , 这都是学术层面的探讨 , 参加项目的专家们都撰写了专题论文 , 可以提供给决策部门参考 , 这些路径是否可行 , 还需要经过大量的政策研究和论证 。 ”她说 。
人工智能的安全治理需要中美合作
傅莹还谈道 , 在人工智能领域建立包容性很强的国际治理委员会 , 通过共同探讨、研究、吸纳好的意见和建议、形成共同的国际规范 , “非常必要且紧迫” 。
她表示 , 中国在人工智能治理问题上向国际社会释放了清晰的合作信号 。 今年11月 , 习近平主席在G20峰会上强调 , 中方支持围绕人工智能加强对话 , 倡议适时召开专题会议 , 推动落实G20人工智能原则 , 引领全球人工智能的健康发展 。
【AI已被用来杀人!傅莹谈智能武器:人类须早些达成治理共识】今年9月 , 中国国务委员兼外长王毅提出《全球数据安全倡议》 , 表示希望国际社会在普遍参与的基础上就人工智能的安全问题达成国际协议 , 支持通过双边或多边协议的形式确认倡议中的承诺 。 他提出有效应对数据安全风险应遵循的三项原则 , 包括秉持多边主义、兼顾安全发展和坚守公平正义 。
傅莹介绍 , 中美学者正在合作研究“人工智能与国际安全治理”项目 。 “这两年中美关系出现紧张状况 , 但是这个项目的研讨并没有受到大的影响 , 充分显示了两国学界的专业精神和对人类共同命运的责任感和使命感 。 ”她说 , 专家们认识到 , 现阶段是构建人工智能国际安全规范的关键窗口期 , 希望两国抓住这一难得的历史性时机 , 制定人工智能通用规范 。
中国在人工智能治理和立法方面已迈出实际步伐 。 例如 , 2018年中国国家标准化委员会发布《人工智能标准化白皮书》;2019年国家新一代人工智能治理委员会发布8条治理原则;2019年国务院颁布了《儿童个人信息网络保护规定》 , 加强未成年人信息保护;2020年通过的《民法典》对保护个人隐私作出明确规定 。
傅莹说 , 目前中美两国是人工智能技术研究和应用发展最快的国家 , 两国需要也有条件加强协调与合作 。 近年其他许多国家的学界也表现出对人工智能应用的安全担忧 , 说明这是人类共同的难题 , 不是一国两国能够解决的 。