大家可能记得,苹果最近几年一直在用的,宣传 iOS 系统隐私性的广告语:
“What happens on your iPhone, stays on your iPhone.”
Or does it? 事实真的如此吗?
过去的事情暂且不提 。我们现在可以肯定的是,在今年晚些时候发布的 iOS 15 和最新版 Mac 操作系统Monterey上,苹果就要堂而皇之地“偷看”你的照片了 。
发生了什么昨天,约翰·霍普金斯大学加密学教授 Matthew Green 在 Twitter 上突然爆出一条大新闻:多名知情人士确认,苹果即将发布一项用于扫描检测儿童色情虐待内容 (Child Sexual Abuse Material) 的端侧工具 。
文章插图
今天,苹果也在官网正式宣布了这一消息:
文章插图
这个系统的工作原理大概是这样的:
首先,苹果会对用户在 iPhone 等各类苹果设备上接收、保存和发送的照片提取哈希值 。
然后,苹果会用这个值和美国“国家失踪和被剥削儿童中心”的数据库进行比对,验证涉事照片是否属于儿童色情虐待内容 。这个数据库将会保存在用户设备的本地 。比对检测工作也是在本地完成的 。
用户在 iMessage 上收到或者发送照片 。系统会在后台完成比对检测工作 。如果系统认为它属于露骨内容,iMessage 就会暂时屏蔽掉这张照片、询问,并再次确认用户是否要浏览或发送这张照片 。
不仅如此,如果用户本身是少年儿童,并且设置了家庭账号的话,iOS 系统还会通知家长 。
文章插图
如果你以为所有这些真的全部在本地完成的,不涉及到苹果公司层面的隐私嗅探行为,那你就太小看苹果了 。苹果也会用类似的哈希算法对用户发送到 iCloud 保存的照片(同样端到端加密)进行检测,并且在上传之前给照片文件增加一串保密信息 。
如果涉事照片被判定为儿童色情虐待内容,苹果的服务器将可以对照片进行解密,并且交由人工进行二次审核 。
文章插图
安全专家认为,苹果设计的这套打击儿童色情的技术,虽然设计目的是好的,但可能存在严重的安全和隐私风险,并且完全颠覆了“端到端加密”原本存在的意义 。
事件的影响“最初我的理解是,这项技术用于在端侧对云存储的照片进行扫描 。但是最终,它可能会成为在加密通讯系统中增加监控的一个关键因素 。”Green 评论道 。他还表示,在端到端通讯系统中加入这样的扫描系统,一直以来都是全球各地执法部门的主要需求 。
“棱镜”计划的爆料人爱德华·斯诺登也对苹果此举颇为不满,甚至在 Twitter 上发布了一张梗图吐槽:
文章插图
不管怎样,苹果将会在新版操作系统里“偷看”你的照片这件事,算是坐实了 。
至于什么"What happens on your iPhone stays on your iPhone",只是少数用户一厢情愿的假象了……
需要明确的是,苹果并不是第一家、唯一一家在做类似事情的公司 。包括谷歌(从2008年开始)、微软(2009年)、Facebook(2011年)和 Twitter(2013年)等公司,都已经在用哈希算法等相关技术,对儿童色情虐待内容进行预防、侦测和打击了 。
知名互联网用户权益机构“电子前线基金会”(EFF) 在2019年曾经撰文指出:这种号称专为打击儿童色情内容而设计的所谓“用户端侧扫描工具”,是一个伪命题 。
1)从技术上来讲,这类工具无法将其检测能力限制在儿童色情这一类内容上 。
具体来说,这类检测技术核心原理都是对图片提取哈希值,然后和一个“官方”的数据库进行比对 。
但是目前机器学习领域已经有了先进的生成对抗网络技术,可以对两个不同的文件,比如两张完全不同的照片,实现“哈希碰撞”(也即这两张完全不同的照片拥有相同的哈希值):
文章插图
任何拥有官方数据库操作权限的人,都可以自己添加新的哈希值条目到数据库,从而扩大这个图片检测系统,所检测和审查的对象范围 。
EFF 指出,在这样的场景下,“由于数据库只包含哈希值,而儿童色情图片的哈希值和其它图片的哈希值(可能)没有区别,那么扫描儿童色情内容的系统,就无法从技术上只针对儿童色情内容 。”
- 苹果自带的这个编辑器 苹果手机自带编辑软件是什么
- 鸿蒙OS和苹果iOS多方面对比出炉 鸿蒙跟ios
- 华为鸿蒙对比苹果IOS结果出炉 华为鸿蒙系统跟ios
- 华为鸿蒙OS对比苹果iOS流畅度测试 ios系统对比华为系统的优势
- 华为鸿蒙和苹果iOS测试结果出炉 华为鸿蒙开始测试了吗
- 苹果13系列手机壳 苹果12系列手机壳
- 苹果13系列 苹果13系列哪个性价比最高
- 苹果用户充电宝系列 苹果官方充电宝
- 苹果13买好了 明年买苹果13
- 梦见苹果酒_周公解梦梦到苹果酒是什么意思_做梦梦见苹果酒好不好