互联网爱好者创业的站长之家 – 南方站长网
您的位置:首页 >资讯 >

好的算法推荐无需惧怕“关闭按钮”

时间:2022-06-06 19:45:45 | 来源:市场资讯

算法推荐技术一定要以侵害个人信息和隐私作为代价吗?App是否会“监听”用户?

文 "刘畅编辑|朱弢

来源:财经E法

编者按:

2022年4月,中央网信办牵头开展“清朗·2022年算法综合治理”专项行动。据悉,上述专项行动是为落实好《互联网信息服务算法推荐管理规定》,继而深入排查整改互联网企业平台算法安全问题,并借此督促企业利用算法加大正能量传播、处置违法和不良信息、整治算法滥用乱象。

什么是算法?如何正确认识算法的作用和意义?又应该如何治理算法?财经E法采访业内权威专家,探讨算法的意义,也对当前算法存在的问题和治理理念、方向做出深入思考。

人们喜欢讨论算法问题。这似乎不仅仅因为它带来的新鲜感和科技感,更由于其对人类生活日益强大的渗透力。越来越多的人正在意识到,人们的生活已经被算法所包围。

在这一背景下,如何理解算法制度涉及的一些实际问题就变得十分重要。个人隐私和让渡间看似“不可能”的困境,也是信息化时代人类与科技相处之道的逻辑演变。

算法推荐技术能带来哪些社会福祉?这一技术一定要以侵害个人信息和隐私作为代价吗?人们在担忧什么?App是否会“监听”用户?算法推荐可能对互联网行业产生哪些影响?

带着这些问题,财经E法专访了中国电子技术标准化研究院网络安全研究中心测评实验室副主任何延哲。

算法是一把锋利的“双刃剑”

财经E法:有人认为,个性化算法会带来“信息茧房”现象。也有人认为,人的选择性心理从来就存在, “信息茧房”现象及可能带来的后果并不足虑,不能因此“因噎废食”。你怎么看?

何延哲:正如人的欲望不能野蛮生长一样,个性化服务也是如此。我们想一想,如果真的把个性化服务做到“饭来张口、衣来伸手”的地步,究竟好不好?我觉得,把一个人完全扔到这种所谓的“舒适”的状态里,对他个人的发展成长是不利的——这种不利不仅仅针对未成年人,即使是成年人,也没办法完全克服自己各种各样的欲望。

当然,这并不是说互联网要为每一个人负责——这太难了,也办不到。我们真正需要做的,是赋予每个人更好管理自己自制力的一种能力,也就是个性化选择的取舍问题。

任何一个问题发展到极致时,或者当他高速发展时,都要警惕:人脸识别广泛铺开时,我们要担心个人隐私;直播带货突飞猛进时,我们要担心商品质量。所有的事情都是一样的。所以我觉得,这不是“因噎废食”的问题,大家对这个问题的担心是完全可以理解的。

但另一方面,考虑这个问题绝对不能一刀切,让算法和算法技术停滞下来。应该充分认识到算法在增加人类福祉,促进人类社会发展中的正向作用,要考虑全面发展、富有人文关怀的个性化,替代为了极致满足个人欲望的个性化。

财经E法:在你看来,算法推荐技术可能带来的社会福祉有哪些?

何延哲:首先,从个人方面看,福祉是很明显的——一个是方便,一个是省钱。算法推荐能够找准你的需求,让你花更少的钱和时间办更多的事儿,这两点就足够有吸引力了。

其次是平台方面。算法推荐可以显著降低平台获客成本,也就是平台与消费者间沟通的成本。尤其是对一些中小企业而言,以前要通过大数据或广告营销渠道找到适合的客户,对他们来说是一件高成本、低效率的事儿。这也直接导致这类企业很难做大。有了个性化推送以后,他们就可以借助大数据分析技术,把自身商品信息送达至部分可能有潜在需求的客户。这中间数据切切实实地发挥了作用,体现了价值。

当然,精准的推荐可能会对个人产生打扰,同时也带来了对个人隐私侵害的担忧,但话又说回来,如果不使用这种技术,广大的企业,尤其是中小型企业、商家没有足够的预算进行大规模广告投放,那么就只能回归到拨打电话、发小广告、无差别弹窗等更为低效的手段,这个打扰恐怕更甚。也许,从这个角度看,算法推荐反而是减少对个人的打扰。

必须承认,尤其对中小企业而言,算法推荐还是很有效率、性价比很高的一种普惠措施。

此外,算法决策还催生了诸如自动合成、自动派单、自动计费等新的业务模式。可以说,凡是互联网公司,或者说在依托网络开展业务的公司,几乎都涉及到算法决策。如果从整个社会发展角度看,大家可以假设有一天没有了算法,我们的生活会有什么样的变化?如果没有算法上的创新,我们还能在应用层面创新什么?

反过来思考,或许是另外一个理解算法的意义和价值的方式。我们之所以还处在数字时代,是因为算法能够让我们掌握更多的数据,能够让数据产生价值,算法绝对算得上是数字时代的基础设施。

从更大意义上说,没有了算法,人类社会将止步不前,失去了对数据的计算力,人工智能时代无法到来。

算法透明化,要探寻一个可解释的标准

财经E法:您此前在接受采访时曾表示,数据本身没有价值倾向。治理“大数据杀熟”现象,不是要“杀死”大数据,而是要把数据和算法用在正确的地方。你所说的,“正确的地方”具体指什么?

何延哲:定义“正确”其实很难。这里我觉得,第一,要有守法的底线思维,这个自然不用多讲,只不过法律法规的部分要求可能还不够具体,还需要不断跟进学习,关注。

其次,就是企业应该有着正确的价值导向,也可以称之为“道德感”或者“科技伦理”。这个看似更虚,但其实所包含的精神内核是清晰的,那就是“己所不欲勿施于人”的良知。所以,正不正确,用绝大部分人的价值观去衡量也是一种方法。

法律法规虽然有一定滞后性,仍有相当的作用和意义,对于遏制广泛、严重的问题,保护相关方利益方面来看,是切实可行和有效的手段,是行业能够存在和发展的根本性保障。

数据没有价值倾向,但算法就不一定了,比如,当算法被用作盈利时,要更加慎重地去衡量它带来的负面作用——算法一定是有负面作用的,尤其是在商业运营的时候,这种负面作用可能被放大。

财经E法:算法推荐规则掌握在企业手中。不少人认为,应当允许企业手握这样的机密。你对算法策略披露有何看法或建议?披露应该做到什么程度?

何延哲:现在关键的问题在于,规则披露出来了大家会看吗?隐私政策都公开了、弹窗了,可是很少有人会细看,不管怎么说,隐私政策还能看懂一些,那么更为晦涩难懂的算法规则到底会有多少人看呢?

算法透明制度本身很正确,但是如何让其发挥更好的作用,是个难题,关键原因就是信任的缺失。

我举个例子,医生给你开了一包保密配方的药,说吃这个就能好,你说不放心,要求把保密配方公布出来。为什么没人这样要求?因为大家对行业认可的保密配方是信赖的。但算法就没这么走运了——这是由于这么多年大家积累下来的对算法的不信任导致的。

当然,这个例子可能不是那么恰当,因为药可能必须得吃,算法推荐可以选择不用,但有一点是相同的,配方也好,算法也罢,对于生产商或开发商来讲,都是自己的核心竞争力。要把这个披露,自然是有所顾虑,也可能产生抵触心态,也会有很多搪塞之词。

因此,对于算法透明制度而言,最为紧迫的是需要一个可解释的标准。那就是披露到什么程度,可以为用户答疑解惑,也不妨碍保护核心技术。如果把争论仅停留在“应不应该披露”上,恐怕只是推诿扯皮,没有太大意义。

算法透明制度当然是可行的。就比如一瓶饮料上,既披露了主要的配料,但没有配方一样。现在要做的是,尽可能拿出细则标准、优秀案例来做到更好的示范,以个性化推荐为例,最起码,画像的数据来源、跨平台推送的逻辑可以说,个人信息保护影响评估可以做,对个人可能产生的影响和采取的安全措施可以讲。

算法与隐私需要共存

财经E法:隐私权与被遗忘权,是数据时代背景下备受关注的两类个体权利。权利让渡似乎成为一种没有选择的选择——属于自己的数据,保存权却不在用户,用户本身也无法限制其使用范围,这是数字时代对隐私权的一个巨大挑战。

在你看来,用户是否应该拥有一种“隐身”能力,使自己的数据不被他人获取或存储,从而在根本上保护自己?

何延哲:对于用户的这种想法,第一,法律上肯定支持;第二,个人通过各种努力可以做到,只是做到后太不方便了,让人觉得App的什么功能也用不了,这就带来心理上的抵触。

既想通过互联网带来便利,又想不让渡个人隐私,这是一个两难问题,现行条件下很难解决。除非,我们能回到此前那个仅仅把网络看做提高效率的工具,而非智慧生活一部分的年代。

在我看来,对个人隐私权的让渡问题,应该用发展的眼光去看。目前来看可能在观念上难以接受,但一百年后再来看,也许会是另一种感受也说不定。

财经E法:在算法推荐技术大行其道的今天,个人信息和隐私被侵犯是否是个必然结果,无法被绕开?

何延哲:大数据时代,要想个人信息完全不受影响,肯定不现实。我们现在努力的方向,一是如何让影响降到最低,二是如何赋予个人更多的选择权。

如果我们对个人信息的定义仍停留在其旧时代的原有定义上,那就很难从里面挖掘出新的价值。你的个人喜好,以前只能记录在日记中,现在则可能演变成各种各样的个性化推送,帮助你找到更多的朋友、商品——这就是大数据的作用,否则它将永远存在在日记里。

个性化算法和个人隐私事实上是可以并存的,而且在目前的发展形势下,不得不并存。

当然,我们希望这种并存,也就是所有的大数据使用都是个人主动选择且可以接受的。这里我想强调的是,这里的个人选择,一定是真正出于对事情全局了解之后的慎重选择,而不是一时的情绪化表达。

财经E法:互联网的免费模式其实离不开商业化的变现,广告便是一种典型且成熟的场景,但用户面对广告、特别是个性化广告却往往有强烈的抵触情绪,如何在商业变现和用户体验之间取得平衡?

何延哲:用户对个性化广告存在偏见,有两个原因。

一是个性化广告做得还不够“个性化”——真正个性化是能够让用户完全舒适的。当然,这是理想的状态,现实中很难实现,毕竟,人的想法太多变了,算法很难完全覆盖;

二是用户缺少对算法的了解,造成一种对其机制不全面的认知,总以为自己被偷听就是一种。这其实不能怪用户,关键在于互联网厂商。一方面,它们在个性化和跨平台机制上追求所谓的“极致”;另一方面,在规则透明性上、用户培育上、知识科普上做的显然不够。当然,现在它们也在反思。

成熟的算法需要兼顾个人权益和权利

财经E法:我们在采访中发现,很多用户都对App心存疑虑,总认为可能在监控自己。App是否真的存在监听用户的情况?如何界定App使用者合理隐私期待的边界?

何延哲:其实这是个老生常谈的问题,但我愿意再讲一遍。

第一个问题,App利用麦克风“监听”在技术层面是可以实现,比如我们曾经在实验室测试环境中,利用测试App模拟出了锁屏后也能持续录音一段时间的情况。但这种做法成本高、效率低、法律风险大,此前了解到的一些检测结果中,尚未发现有App这样做。当然我们也都知道,更为高效、成本低廉的方式就是大数据的关联分析而非直接监听。

那么,什么是用户合理的隐私期待?可以用一句话总结:当平台完全真诚地向用户开放了查阅、复制、撤回同意、删除、注销账号等权利,而没有大量用户去行使上述权利时,那便是用户还愿意使用App所提供的服务,并达到了一定程度的隐私期待。

财经E法:你认为未来对于个性化推荐的政策方向是什么?

何延哲:现在这个阶段,其实大家都在避免使用“鼓励个性化推荐”这种表述。我更愿意用“鼓励更好地应用个性化”这种表述代替。

其实,个性化是绕不开的问题。因为对于很多人来说,所谓的更好,就是人人都成VIP,只有个性化才能高效、低价的做到这点,这是大势所趋。而现在的相关政策,事实上已经在推动“更好地应用个性化”——比如说,开放选择权,也就是提供“关闭按钮”,就是更尊重用户的一种表现。

反过来说,要不是个人信息保护和算法管理相关法律法规等的推动,有助于隐私保护的前沿技术的出现及应用恐怕没那么快,这也就是为什么法律法规之所以重要的原因。

财经E法:事实上,按照我们的实际体验,大部分互联网企业目前都提供了关闭个性化推荐的选项,但关闭之后的用户体验却并不好。看起来,精准的推荐和不精准的推荐都会遭到用户的反感,怎么理解这种情况?

何延哲:我认为,目前的现状来看企业有不作为的成分,也有无奈的成分。

事实上是,对大多数内容平台而言,个性化版块确实比非个性化受欢迎,即便是热榜这种非个性化的资讯平台,那也是有足够的“爆点”和公众参与度的大平台才吸引人,小平台也就是个转载,用户吐槽“刷起来没劲”“还不如去网上刷剧看爽文”也就不足为奇了,也就导致很多企业不重视对非个性化版块的投入了。

对电商类购物平台而言,要是撇开个性化,采用榜单式的展示方式,可能不太好办——展示卖的最多的?那首页肯定基本全是九块九包邮那种商品,不能满足多样化需求;什么都展示?那肯定就变成以前百货商场那种,第一页展示柴米油盐,第二页展示家庭日用品……这样问题又来了:一家商场还可以这样干,可是平台上有上百万个商家,展示哪个好呢?广告费出得最多的吗?那广大中小商家、掏不起广告费的如何生存?

咱们每个人都可以看看自己面前的手机屏幕。一般来说,也就五六英寸,最大不超过8英寸——手机屏太小了,可展示的东西太少了。如果平台的效率提不起来,最后就会被头部商家把资源全占光,让所有其他人默默无闻,最终被迅速淘汰,这可能又加剧了垄断。

可以问大家一个问题,如果真的关闭了个性化推荐,那手机屏幕到底应该展示什么?如果说答案是展示我想看、想要的东西——什么是想要的东西?不还是个性化吗?

总之,还是希望让更好的、更尊重个人的个性化机制满足绝大部分人的要求,而不是纠结“个性化展示什么,非个性化展示什么”这么一个可能无解的问题。现有的法律制度对算法推荐已经有了规制,人们对算法推荐也有了警惕心,在这种社会共治的压力下,算法推荐就更需要与时俱进,以人为本,可以说前景值得期待,创新的空间也有待探索。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。