为了保护儿童,苹果要“扫描”用户相册这一次选择 手机为什么扫描不到wifi


为了保护儿童,苹果要“扫描”用户相册这一次选择 手机为什么扫描不到wifi

苹果想要保护儿童,但我们害怕苹果做的太多……
“阿里员工遭性侵”事件中,因为不具备通话录音功能,iPhone“意外”卷入舆论,遭到了各路网友的吐槽:
考虑到对隐私的保护,iPhone不提供通话录音功能也无可厚非 。
但意想不到的是,在另一个事件中,同样是面对隐私问题,苹果却做了另外一个选择 。
为了保护儿童,苹果要“扫描”用户相册这一次选择源自几天前苹果官宣的一则消息 。
苹果表示,为了更好的保护儿童,公司将在iOS15、watchOS8、iPadOS15和macOSMonterey的年底更新中推出3项全新的技术:
第一项技术涉及Siri——当用户向Siri询问“如何举报儿童遭到剥削”等类似问题时,后者会提供相应的举报途径;又或者用户尝试搜索关于儿童性虐内容关键词时,Siri会出面干预;
第二项技术为“Messanges通信检测”——Messages应用的可选通信安全功能,可以在接收或发送色情照片时警告儿童及其父母;
第三项技术涉及照片和iCloud——系统“neuralMatch”将能够检测存储在iCloud照片中的已知儿童性虐内容(CSAM)图像,从而使Apple能够将这些情况报告给国家失踪和受虐儿童中心(NCMEC) 。
其中,引起最大争议的就是第二、三项技术 。
比如第三项技术,依据苹果所对外公布的文件公告,CSAM检测的应用过程中,在用户将张照片上传至iCloud之前,系统会在设备端将本地照片与NCMEC和其他儿童安防组织提供的已知儿童性虐图像的哈希数据库进行匹配 。
一旦发现相关内容,相关材料会交由人工进行二次审核 。
若审核结果确认违法,苹果将会禁用公司账户,并联系执法部门 。
在知乎,有网友@AntDock张哲涵将以上原理画了出来:
图|源自:知乎网友@AntDock张哲涵的回答
从图像我们可以清楚意识到,一旦该技术被用在iPhone、iPad等设备中,当用户将iCloud功能开启,所有的照片都会被系统“扫描”一遍,可能有些还会进行二次人工审核 。
这么一套操作下来,虽然看起来iPhone的出发点是好的,但是用户还有“隐私”可言吗?
6000+人签名反对新技术:这是给苹果的安全“开后门”苹果这边宣布完消息没多久,那边就有人在网上写了一公开信 。
信中写道,苹果的意图是善意的,但它的提议是在系统中引入“后门”,而这个行为可能会破坏对所有苹果产品用户的基本隐私保护 。
截至目前,这封公开信已经得到了近6500名个人或组织的支持,其中不乏知名安全和隐私专家、密码学家、研究人员、教授、法律专家等 。
比如霍普金斯大学教授、密码学家MatthewGreen,他表示:
这种工具能够可以帮助查找手机中的儿童色情内容,但想象一下,如果掌握权力的公司或机构获得了这种系统,会发生什么?
又比如社会组织“民主与技术中心(CDT)”表示:
苹果公司的变化在事实上是给儿童和所有用户带来新的风险,这严重背离了苹果从长期持有的隐私和安全协议 。
甚至斯诺登也出来针对此事发表观点,称:
不管用意有多好,苹果都在通过这种方式向全世界输出大规模监控 。如果他们今天可以扫描儿童色情内容,那么明天就可以扫描任何东西 。他们毫无征兆地将价值1万亿美元的设备变成了监控设施 。
同时,他还在推特上发文呼吁大家去联名抵制苹果 。
在这封公开信的最后,专家们也对苹果提出两点要求:
·苹果立即停止尝试部署所提议的内容监控技术;
·苹果发表声明重申他们对端到端和用户隐私的承诺 。
针对业内的质疑,苹果也作了新回应,包括系统仅适用于上传到iCloud的照片,以及会坚定拒绝来自政府的扩展该技术的要求 。
而依据这份回应,我们也能够看出,苹果是铁了心要实施这几项技术 。
更甚者,苹果还明确,将在未来向第三方应用程序开放这三项新技术 。
不过,Facebook旗下即时通讯应用WhatsApp负责人WillCathcart在接受媒体采访时已经明确拒绝在平台上采用类似系统,更是在推特上连发数条进行“谴责”,表示:
该方法给世界带来了以些非常让人担忧的东西,因为它是由苹果构建和运营的一套监控系统,能够被轻易地用于扫描私人内容,以查找由该公司、或政府决定控制的任何内容 。
【为了保护儿童,苹果要“扫描”用户相册这一次选择 手机为什么扫描不到wifi】苹果高空走绳回头再来看整个事件,核心问题在于“科技向善”与“隐私安全”之间的矛盾 。

推荐阅读