按关键词阅读:
惠特菲尔德:是的 , 《幽灵党》的反响非常好 , 但是在性能方面还是有成本的 , 而且修复这些补丁也有财务成本 。 而且 , 在10年或15年前 , 没有人预料到这会成为一个问题 。 如果你一开始就知道 , 你就可以做一个落地设计 , 这样就不会产生太大的影响 。
佩雷斯:你可以解释为什么像Spectre这样的投机性执行渠道还不为人所知 。 但在70年代和80年代 , 也就是早期的竞争时期 , 旁路频道就已经为人所知 , 作为一个行业 , 我们选择不在商业产品中提及这些 。
诺顿:我们嵌入的东西之一是一个量子证明随机数生成器 。 原因是 , 展望五年之后 , 我们知道我们目前所有的双因素认证都将被这些新的量子计算机入侵 。 它真正关注的是我们可以预先设计或拥有哪些元素 , 知道我们当前的身份验证过程将面临风险 。 黄金时期已经过去了 。 我们知道这一点 , 而且从20世纪70年代就开始了 。
奥伯格:这是一个非常好的观点 。 在软件领域中 , 补救要容易得多 。 基本上 , 关于安全的关键事情之一是你永远不会事先把它弄清楚的整个概念 。 你想要有一个反应的过程和方式 。 但是要想更新硬件是很困难的 。 通过更新某些固件可以做到这一点 。 显然 , FPGAs在这方面有独特的机会 。 从安全的角度来看 , 您可以从这些类型的部署中获得很多好处 。 但这必须成为战略的一部分 。 在某些情况下 , 这真的很有挑战性——尤其是在危机/幽灵这类问题上 。 这些东西是不能更新的 。 你可以减轻它的某些方面 , 但很难更新 。 这是硬件的可怕之处之一 , 这进一步强调了在早期进行更多投资的重要性 , 因为你无法通过更新来处理很多这样的问题 。
佩雷斯:如果能够使其可更新或更具可配置性 , 那么也可能会引入新的攻击载体 。
【「芯片访谈」芯片和人工智能系统的安全权衡】SE:随着我们开始在几乎所有地方加入智力 , 这变得越来越困难 。 人工智能和机器学习背后的整个理念是 , 这些系统将自动自我优化 。 但是当他们这样做的时候 , 一个可能会和另一个不一样 。 那么我们如何保证这些系统的安全呢?每个设备都不一样吗?
诺顿:当我们得到这些神经网络进行处理时 , 你就得到了这些训练网络 , 它们将进行实时的学习和训练 。 所以这对我来说是个性化的——无论它对我的生活产生了什么影响 。 然后Siri和谷歌Home会收听我的对话 , 知道我所有的信息 。 这就变成了一个隐私问题关于谁是管理我家机器人的芯片的可信任的监护人 。 它了解我的生活和孩子的一切 。 谁是那些管理数据、更新数据并确保我的个人身份被解除识别的可信任的托管人?他们仍然在咀嚼和咀嚼数据 , 得到他们需要的东西 。 我们正在引入越来越多的个人身份安全 , 但所有第三方数据提供商仍然希望访问这些数据 。
佩雷斯:帕梅拉对隐私的看法是正确的 , 我们在谈论安全时有时会忘记隐私 。 但现在 , 这绝对应该成为我们的首要考虑 , 特别是在我们工作的很多消费产品中 , 这些产品对我们的生活产生了影响 。 但总的来说 , 这就是为什么可解释性 , 以及关于人工智能可解释性的研究如此重要的原因之一 。 在大多数情况下 , 我们凭直觉和实验知道这些技术是可行的 。 但如果我们不知道原因 , 那就相当可怕了 。 我们无法解释为什么结果会是这样 , 也无法解释这些方案有多容易受到数据毒害 。 这强调了数据完整性和机密性的重要性 。
Kulkarni:我们如何在不同的工作负载、不同的条件下创建大量的训练数据集?如果你想到无人机或战斗机 , 甚至坦克或士兵 , 所有的数据都在向我们袭来 。 但我们如何获得这些训练数据集 , 以建立一个行业范围的理解推断人工智能 , 以及查看这些因果关系 , 以避免此类攻击 , 并尽可能地预防?
SE:更糟糕的是 , 这些系统是黑盒子 。 在它们进化和适应的过程中 , 说出它们为什么会发生变化或者到底是什么发生了变化有多重要?我们对此有什么见解吗?
Norton:这就是为什么在硬件层面上查看正在处理的数据是很重要的 。 我们在一个可信的执行环境中加密它 。 你正在哈希数据 , 所以你有一个事务发生了什么 。 你有能力利用这些账本-你可以有成千上万的账本嵌入-去提供谁可以使用这些账本 。 然后你再加上同态计算 , 它允许你在计算数据的同时保持它的私密性 。 你de-identifying 。 你有能力评估芯片 , 说 , ‘好的 , 这个芯片不仅加密 , 而且这个芯片处理数据使用同态加密 , 这确保没有个人标识符 。 我相信 , 这就是市场的发展方向 。 我们在同态计算方面有了更好的性能 , 并且有了一些非常重要的进展 , 这是令人兴奋的 , 因为这个概念已经存在了大约40年 。 这只是高计算和高成本的问题 。 所以当我们再次考虑降低成本时 , 这是一种能够说这是一个可信的人工智能推断芯片的方法吗?我们可以确保任何人的个人信息都不会被泄露 , 无论他们是被追踪的联系人 , 还是在机场 , 不管是什么 。 在这种可信、执行的环境中 , 数据是加密的 , 所以只有联邦调查局或任何需要访问的人可以看到那个人的脸或身份来运行数据 , 如果他们得到许可的话 。 我鼓励我们看到的一些措施,我们在这里推出下个月在私人AI和隐私问题,特别在同态的计算,以及我们如何鼓励和创造更多的机会在这个行业,以确保我们的隐私和数据安全 。
稿源:(未知)
【傻大方】网址:http://www.shadafang.com/c/111T313922020.html
标题:「芯片访谈」芯片和人工智能系统的安全权衡( 二 )