ai技术|要做人工智能领域的扫地僧?苹果是如何低调玩转AI技术的( 四 )


博尔切斯和詹安德里亚都反复强调了在数据中心进行这项工作的隐私影响 , 但是詹安德里亚说本地化处理也与性能有关 。
“另一个大问题是延迟 , ”他说 。 “如果你要把东西发送到数据中心 , 想要以帧率实现功能真的很难 。 我们在应用商店中有很多应用可以做一些事情 , 比如弄清楚人在四处走动 , 比如识别他们的腿和胳膊在哪里 。 这是我们所提供的一个高级API 。 从本质上说 , 这只有在你能以帧率进行操作时才有用 。 ”
詹安德里亚给出了另一个消费者用例:“在你用相机拍照之前 , 相机会实时看到一切 。 它可以帮助你决定什么时候拍照 。 如果您想在服务器上做出决定 , 就必须将每一帧发送到服务器 , 以决定如何拍摄照片 。 这就没有任何意义可言了 , 对吧?有很多你想要打造的体验最好在本地设备上完成 。 ”
当被问及苹果公司如何选择何时在本地化设备上运行功能时 , 詹安德里亚的回答很直接:“当我们能够满足 , 或者超越在服务器上能实现的功能质量 。 ”
此外 , 两位苹果公司的高管还将苹果定制芯片作为在本地化设备处理数据的先决条件 , 而自iPhone 8和iPhone X以来内置的神经引擎最为重要 。 神经引擎是八核的神经处理单元(NPU) , 主要作用就是处理某些类型的机器学习任务 。
“这是一个漫长的历程 , 因为硬件在五年前还不能做到这一点 , ”詹安德里亚说 。 “神经引擎的设计是完全可扩展的 。 iPad的神经引擎比iPhone中的大 , 比苹果手表中的大 , 但整个产品线中应用程序的CoreML API接口层基本是一样的 。 ”
当苹果公开谈论神经引擎时 , 会分享一些性能数据 , 比如2018年的A12芯片每秒可执行5万亿次运算 。 但苹果并没有详细介绍芯片架构 。 詹安德里亚拒绝透露神经引擎工作原理方面的更多细节 。 相反他说 , 应用程序开发人员可以从CoreML收集他们需要知道的所有信息 。 CoreML是一个软件开发API , 可以让开发人员访问iPhone的机器学习功能 。
詹安德里亚说 , “CoreML开发者API非常清楚地概述了我们所支持的机器学习模型、可运行的模型种类……我们支持的内核越来越多 。 你可以从中找到诸如PyTorch或TensorFlow等所有主流的机器学习模型 。 你可以对模型进行编译 , 然后提供给CoreML 。 ”
“CoreML的工作是找出在哪里运行模型 。 也许正确的做法是在神经引擎上运行 , 但在GPU或在CPU上运行模型也可能是正确的做法 。 我们的CPU也针对机器学习进行了优化 。 ”
苹果两位高管在谈话中都提到了第三方开发商的应用 , 也提到了苹果自己的应用 。 公司的战略不仅仅是推动苹果自家服务和功能 , 也会向大型开发人员社区开放部分功能 。 自2008年应用商店首次开放以来 , 苹果一直依赖开发者在其平台上进行创新 。 该公司在更新内部开发的应用程序时 , 经常会借鉴那些开发者的想法 。