ai技术|要做人工智能领域的扫地僧?苹果是如何低调玩转AI技术的( 三 )


提到苹果在最新软件和产品中如何使用机器学习时 , 詹安德里亚给出了很多例子:“很多新的体验都是由机器学习驱动的 。 像语言翻译、设备上的听写指令 , 或诸如睡眠、洗手或心脏健康等医疗保健方面的新功能都是如此 。 我认为iOS中没有机器学习的地方越来越少 。 ”
“在用户体验中 , 很难找到没有预测性(功能)的部分 。 比如 , 应用预测 , 或者键盘输入预测 , 或者智能手机摄像头都会运行大量的机器学习 , 来找出他们所谓的“主题” , 也就是图片中最重要的部分是什么?或者使用人像拍摄模式时模糊背景也是这样 。 ”
“所有这些都得益于苹果核心平台内建的机器学习功能 。 所以 , 这就像是 , ‘很难找到一些不用机器学习的东西’ 。 ”
博尔切斯也将可访问性作为重要例子 。 他说:“正因为如此 , 它们才得以成为可能 。 ” “随着时间的投入和内置功能的出现 , 诸如声音检测之类的功能可能会改变特定社区的游戏规则 。 ”
此外 , 用户可能已经注意到苹果在过去几年的软件和硬件升级都强调了增强现实 , 其中的大多数功能实现都要归功于机器学习 。 詹安德里亚表示 , “机器学习在增强现实中得到了广泛的应用 。 难点在于所谓的同步定位与建图(SLAM) 。 所以 , 试着理解当你带着有激光雷达扫描仪的iPad四处移动 , 它会看到什么?如何将设备实际看到的东西转化为三维模型?”
“现在使用的是深度学习 , 而且能够在设备上实时运行 。 如果用户拿着iPad四处移动 , 还需要上传到数据中心就没有意义了 。 所以总的来说 , 正是深度学习能够将原始数据转成想要的语义 。 ”
苹果公司更多是通过苹果神经引擎(ANE)或定制的图形图像处理单元(GPU)在本地设备上执行机器学习任务 。 詹安德里亚和博尔切斯都认为 , 这种方法使得苹果的战略在竞争对手中与众不同 。
为什么要在本地设备上处理?
人们通常把机器学习归结为这样一个想法:更多数据意味着更好的模型 , 而更好的模型反过来又意味着更好的用户体验和产品 。 这也是为什么很多人经常说谷歌、亚马逊或Facebook可能是人工智能领域领导者的原因之一;这些公司运营着大量的数据收集引擎 , 部分原因是它们运营并能够全面了解已经成为世界大部分地区关键数字基础设施的数据 。 根据这一标准 , 一些人认为苹果不太可能取得同样效果 , 因为它的商业模式完全不同 , 而且公开承诺限制数据收集 。 詹安德里亚表示 , “是的 , 我也清楚这种认为基于数据中心大型模型在某种程度上更准确的说法 , 但实际上从技术上讲这是错误的 。 最好在接近数据的地方运行模型 , 而不是到处移动数据 。 不管是位置数据还是锻炼数据 , 最好离数据源近一点 , 这样也保护了用户隐私 。 ”