iOS 15拳头功能实测:原生安卓、小米手机笑了!( 三 )


当然 , 该功能也有其优势所在 。 首先 , 谷歌的Google Lens是需要用户联网交换数据的 , 在国内想要使用谷歌服务可不是一件容易的事 。 国内厂商的图像识别功能倒是可以正常联网 , 但是在没有网络的情况下也就运作不了了 。 作为对比 , 「实况文本」功能是基于采用机载处理的“深层神经网络” , 而不是基于云计算的方法 。 换句话说 , 该功能在没有联网的情况下也可以正常使用 。
iOS 15拳头功能实测:原生安卓、小米手机笑了!
本文插图
其次 , 目前手机上的文本识别功能大多都以独立应用的形式存在着 , 例如谷歌自研的应用Google Lens、三星的图像识别软件Bixby Vision、小米的「扫一扫」、OPPO的「Breeno识屏」等 。 和它们不同 , 苹果的「实况文本」功能是内建在相机里面的 , 而所有的文本都是在用户拍照时自动捕捉的 , 用户不必启动单独的应用程序就能使用对应功能 。
再次 , 虽然是后来者 , 但是苹果的生态结合得更加紧密 。 在WWDC 2021上 , 苹果公布了全新升级的「聚焦搜索」功能 。 现在「聚焦搜索」通过智能技术 , 可以根据定位信息、人物、场景或物品来搜索图片 , 用户只要下拉菜单栏 , 输入关键词 , 就可以轻松搜索到所有包含该文字的图片 。
iOS 15拳头功能实测:原生安卓、小米手机笑了!
本文插图
一直以来 , 安卓厂商最为人诟病的就是生态割裂 。 举个例子 , 小雷在小米10上能找到三个图像识别功能 , 三者之间互不关联 , 和小米自身的全局搜索也没有产生任何联系 , 都是独立存在的功能 。 2019年 , 谷歌曾经试过将Google Lens和Google Photos相结合 , 让使用者可以用文字搜索到想要的照片 。 问题是 , 市面上很少会有大厂会使用谷歌自家的相簿 , 生态也就无从谈起 。
iOS 15拳头功能实测:原生安卓、小米手机笑了!
本文插图
【iOS 15拳头功能实测:原生安卓、小米手机笑了!】 (Google Photo的图文搜索)
有的人觉得 , 苹果是不是已经黔驴技穷了?事实上 , 手机厂商相互「借鉴」不是从现在才开始的 , 在一个行业中学习对手并且取长补短并不是什么坏事 , 都是为了更好地服务用户 。 小雷认为 , 好的系统就应该积极倾听用户的呼声 , 及时推出高效易用的功能 。
总的来说 , 「实况文本」功能还是很实用的 。 该功能的推出 , 让果粉明白自己手机上的相机并不是只能用来拍照的 。 利用「实况文本」功能 , 苹果相机现在可以随时随地呈现信息 。 用户只需对准相机 , 就可以获知身边环境的上千万个单词、短语、位置和事物 , 更好地浏览周围的世界 。