人工智能|你可以拒绝算法了( 二 )


而且,算法对人的追逐并不局限在单个应用或者平台,它们开始出现“合谋” 。
最典型的案例,莫过于苹果在去年宣布调整臭名昭著的IDFA(Identifier For Advertising)规则修订 。IDFA这类系统简单来讲,就是当你在不同平台跳转时,所有平台依然能知道你是谁,从而形成一种各个算法对同一个用户的“围猎” 。
去年,IOS系统将IDFA从默认开启改为默认关闭 。这套系统通过标记用户的行为,将用户与广告做高效率匹配 。尽管拥有一定的条例授权,但大部分用户都并不知晓这种收集+匹配行为,因此被广泛认知为“灰色产业” 。
条例出台之后,引发了大量的广告代理商反弹 。Facebook据称可能因此损失旗下“广告联盟”一半的营收潜力 。
仅一个IDFA调整,便可以引发行业剧震 。隐私权归属问题在商业中的影响力,或许将远超我们想象 。在国内外的流媒体和社交平台生态体系中,大量的用户数据获取行为,其实都是互联网商业变现效率的养料 。
例如,某电商平台页面中,如果用户不登陆,便无法做商品搜索;
某社交平台中,用户关闭掉个性化广告功能后,6个月便会自动恢复;
在某视频流媒体中,用户的每一次点选,都会变成平台进一步分析用户喜好的工具,短视频流媒体的个人账号,可以成为新时代的“人品鉴定器”;
在某探交友平台上,用户的每一次点选与划掉,都在帮助平台记录使用者的喜好…
在购物与阅读软件的结束页,则都会留下一个游荡在互联网世界幽灵:“猜你喜欢” 。
在巨头提供的“便利服务”面前,用户往往是没有充分选择权的 。大部分用户不能真正离开上述的那些带有垄断色彩的互联网平台 。在当下即刻满足的便利,与副作用遥遥无期的隐私相比,大部分人只能捏着鼻子选择前者 。
而这次的《保护法》就非常有针对性的对这些被诟病许久的行为做出约束 。
比如其中的第十六条规定,“个人信息处理者不得以个人不同意处理其个人信息或者撤回同意为由,拒绝提供产品或者服务;处理个人信息属于提供产品或者服务所必需的除外” 。
这就是针对老百姓总在抱怨的“不同意这些流氓条款,app你就用不了”的现象,强制要求平台方为用户提供选择权 。
比如其中第二十四条要求,“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇 。
通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式 。
通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定 。”
这是在法律的语境里的表述,而事实上指向的就是“大数据杀熟”,以及经常让用户感到被滥用的个性化推荐 。在互联网企业带着用户的数据狂奔多年后,终于有了一部法律,让人们可以对这些习以为常但事实上问题重重的算法规制行为说不 。
从《保护法》的草案,征求意见到最终的定稿发布,业内都将其严厉程度与欧盟的GDPR(《通用数据保护条例》)对标 。在同意规则、数据保存期限、信息处理者的行为规范和义务以及如人脸数据等重要的具体类型数据的保护规定上,《保护法》都给出了明确和具体的指引与要求 。
《保护法》配合的惩罚措施也十分严厉:

推荐阅读