秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空


秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空
文章图片
30秒快读
1、健康码、人脸识别通行 , 是疫情期间迅速铺开的大数据、人工智能应用 。
2、在今年的世界人工智能大会上 , 来自全球的科学家、学者都在探讨数据和隐私该如何治理 , 之后 , 对于人工智能的监管是否会落地?
在疫情期间 , 我们出入小区、写字楼 , 坐飞机、逛景区等场景下都需要出示健康码 , 甚至去理发店洗头都需要登记身份证号和手机号 , 我们需要大数据用于防疫 , 但这些信息是否能被社区大妈、理发店小哥妥善保护 , 这些信息是否有退出机制?
当我们需要刷脸进入公共厕所时 , 当我们可以在几秒内把自己的脸换到明星身上时 , 我们不禁发问 , 谁来保护我的脸?谁来管管AI?
秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空
文章图片
“先发展、再治理”是很多新科技发展的必经之路 , 对人工智能来说 , 其既推动了社会进步 , 但也引发了人们对于隐私保护、就业替代、社会公平等各方面的担忧 。 正因此 , 人工智能无法“先发展 , 再治理” , 必须“边发展 , 边治理” , 否则承担不起滥用人工智能技术造成的损失 。
全球各个国家都在探索AI治理的路径和方法 , 而目前 , 正处于全球人工智能治理体系成型的关键时期 。
01
无可解释的“黑箱”
技术是把双刃剑 , 谁来为AI确定“底线”?
“人工智能的‘底线’就是以人为本 , 这个方向不取得共识 , 未来工作没法做 。 ”中国科学院院士何积丰曾这样表示 。
但是目前的情况是 , AI所带来的安全风险也让人类措手不及 。
在何积丰看来 , 目前 , AI所带来的安全问题包括数据安全、算法安全 。 “数据安全中包含数据隐私问题、数据质量问题、数据保护问题 , 算法安全则包括算法可解释性、算法可靠性等 。 ”在2020世界人工智能大会上 , 何积丰说 , 比如数据质量问题中还可以细分为训练数据质量、现场数据质量等 , 一旦一个点出现问题 , 就有可能带来AI系统被攻击者劫持、AI用于大规模高效率的网络攻击等问题 。
“AI技术是‘黑箱’ , 具有不确定性 。 ”上海科学学所科技与社会研究室主任王迎春告诉《IT时报》采访人员 , 由于AI算法内部的运作往往是不透明的 , AI的黑箱问题和可解释性越来越受到关注 。
对此 , 何积丰也表示 , “黑箱算法”缺乏透明性和可解释性 , 难以分析和验证 。 比如“算法黑箱”就有可能助长企业为用户提供同质不同价的产品和服务 。
人类不能将明天交付给无可解释的“黑箱” 。
02
取信于人要有人的特质
近年来 , “可信”被引入AI领域 , 许多国家或组织都强调了“可信”的重要性 。 例如 , 欧盟于去年4月推出的伦理准则就指出 , “可信人工智能”有两个必要的组成部分 , 一是尊重人类的基本权利、核心原则及价值观 , 二是在技术上安全可靠 。
“可信” , 也是何积丰一直在研究的 , 在他看来 , 可信人工智能应具备与人类智能类似的特质 。 比如鲁棒性 , 在人工智能的训练过程中部分场景可能没有出现过 , 因此对未知的情况应当具备一定的应对能力;还可以自我反省 , 对自身性能或错误能够有所感知 。
秀秀科技|谁来念“紧箍咒”?,如果AI是孙悟空
文章图片
图源/Pixabay
面对AI带来的风险 , 何积丰在此次世界人工智能大会上给出了包括隐私保护、公平建模、主动防御、伦理法律等方面的对策 。 “系统伦理的开发也是人工智能安全对策之一 , 因为AI系统试图对人的行为进行智能调控 , 不仅会放大原有的伦理问题 , 还会产生新伦理问题 , 如何降低伦理问题也是AI系统的关键挑战之一 。 ”何积丰表示 , 开发也要遵循几个原则 , 比如透明性、可控性、安全性、保密性 , 从人性的角度解析数据 , 调节AI系统的应用 , 避免极端差异与不平等的情况 。