科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13

雷锋网按:去年的苹果秋季发布会 , A12Bionic占据了大半的时间 。 相比之下 , 今年苹果虽然声称A13Bionic是业界最强的移动处理器 , 并且针对机器学习做了很多优化 , 但在发布会上并没有太多突出其具体的优势 。 值得思考的是 , 外界一直有传言称苹果会推出VR或AR设备 , 但苹果从未透露过相关消息 。 苹果投入那么多精力 , 设计出了强大的A13Bionic处理器 , 真的只会应用于手机吗?
科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13
文章图片
最新款iPhone的拍照功能的升级将被视为其杀手级应用 。 苹果表示 , 其最新的智能手机芯片A13Bionic已经针对机器学习进行了优化 , 但现在大部分技术似乎都应用于图像 。
除了新的双摄像头之外 , 苹果最新的iPhone11也搭载最新的A13Bionic处理器 , 苹果称这是有史以来最快的智能手机 。 新款A13Bionic是CPU和GPU(以及苹果专有的“神经引擎”)的组合 , 专为运行机器学习应用而设计优化 。 它是采用7纳米工艺制造的第二代苹果A系列芯片 , 共集成了85亿个晶体管 , 苹果称其性能和功耗的优势 。
科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13
文章图片
具体而言 , A13Bionic集成六个CPU核心 , 其中两个大核心性能提升20%、功耗降低30% , 四个小核心性能提升20% , 功耗降低40% , 同时集成四核心GPU , 性能提升20% , 功耗降低40% 。 另外还有八核心神经引擎 , 性能提升20% , 功耗降低15% , 以及机器学习加速单元 , 矩阵乘法性能提升6倍 。
iPhoneXS系列的连网性能被用户诟病 , 不过雷锋网了解到 , 虽然iPhone11Pro系列依旧采用英特尔基带 , 但是表现却比上一代表现好不少 。 据Speedsmart.net在全美发现 , iPhone11Pro和iPhone11ProMax的4GLTE速度比前代iPhoneXS系列快了接近13% 。
需要注意的是 , A13Bionic的CPU组件包含机器学习加速器 , 每秒最多可运行1万亿次操作 。 A13Bionic的设计使得机器学习模型可以根据应用程序的需要在GPU、CPU和神经引擎上进行调度 。
机器学习带来iPhone更好的照片
虽然苹果吹捧了自家新A13Bionic的强大功能 , 并谈到了开发人员可以利用挖掘的潜力 , 但该芯片在苹果秋季发布会上的表现有限 。 其中之一是即将推出的名为Pascal'sWager的游戏向大家展示了A13GPU的图形功能 , 但并没有让那些想要与其他硬件进行比较的人看到结果 。
科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13
文章图片
在发布会之后 , 苹果的软件工程师GokhanAvkarogullari , 负责管理iOStv、OS和watchOS图形驱动程序团队 , 他在Twitter上进一步详细阐述了A13Bionic的GPU以及GPU新的API——MetalAPI的优势 。
科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13
文章图片
【科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13】第二次提到A13Bionic的能力更像是一个概念验证 , 因为苹果谈到即将推出的名为DeepFusion的iPhone功能 , 该功能利用机器学习来提高照片的照片质量 。 根据苹果的说法 , iPhone11总共拍摄了9张照片并逐个像素地进行分析 , 然后将每张照片的最佳组合结合起来创建一张经过优化的照片 , 以尽可能多地提供细节和噪点 。 苹果将其称为“计算摄影狂热科学(computationalphotographymadscience)” , 发布会现场获得了观众的欢呼和掌声 。 然而 , 苹果事件只是展示了其所说使用该技术拍摄的照片 , 而不是深度融合的现场演示 。
科教之家:Bionic推出AR眼镜了吗?,苹果是时候利用强大的A13
文章图片
苹果声称A13Bionic优于其他领先的智能手机芯片 , 如高通的Snapdragon(骁龙)系列 , 但看到其应用于特定用例应该会让那些不是严格摄影爱好者或iPhone电影制作人的人感到失望 。 当然 , 该芯片还将用于虚拟助手Siri以及可能依赖于物体或面部识别的iPhone中的增强现实功能进行改进 。