■ “算法典型问题治理” 系列报道
算法在大大降低信息传播和获取成本的同时,也导致了“信息茧房”“大数据杀熟”等问题。近日,中央网络安全和信息化委员会办公室秘书局、工业和信息化部办公厅、公安部办公厅、国家市场监督管理总局办公厅联合印发通知,重点整治同质化推送营造“信息茧房”、违规操纵干预榜单炒作热点等6大重点问题。《法治周末》特推出“算法典型问题治理”系列报道,针对专项行动的各重点领域及治理进行解析。
《法治周末》记者 王京仔
阅读某篇新闻后,APP就会不断推送同类内容;点击某个短剧连接后,不同类型的短剧就会在广告位刷屏;搜索某个话题或明星,推荐页面就会频繁出现相关信息……依托于算法,平台对于用户的内容“投喂”越来越精准,而大量同质化内容则很可能为人们筑起“信息茧房”。
近日,中央网络安全和信息化委员会办公室秘书局、工业和信息化部办公厅、公安部办公厅、国家市场监督管理总局办公厅联合印发了《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》(以下简称《通知》)。《通知》称:自即日起至2025年2月14日开展“清朗·网络平台算法典型问题治理”专项行动,整治的重点问题之一就是同质化推送营造“信息茧房”。
“信息茧房”之下,人们的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的“茧房”中。受访专家通过厘清其背后算法逻辑的目的,以及“信息茧房”带来的危害,从而寻得“破茧”之法。
互联网时代加剧“信息茧房”
“我的微博推荐栏基本都是娱乐八卦;小红书发现页面主要是家居与健身;抖音推荐页以宠物和搞笑博主为主;B站推荐页则基本是国际新闻及做reaction的up主……”北京的“90后”李沐(化名)细数着她在不同互联网平台上的“画风”。
“除了一开始选择了不同的兴趣标签,在使用时,只要你对某个方面的内容多搜索几次,之后APP上的推荐页基本就是同类型内容了。”不同的“画风”源于她在各平台上的使用偏好不同。在微博上,李沐是追星族;小红书上,为了正在装修的房子她搜索了不少攻略;抖音上,她以放松为主,喜欢“云养狗”“云吸猫”。
事实上,平台之所以能针对李沐的不同偏好进行“投喂”,其背后逻辑是平台通过算法对用户进行“精准画像”并进行内容个性化推荐。用户爱看什么,平台就“投喂”什么,这在一定程度上提高了信息传播的效率,但大量同质化内容也可能限制了个人视野,为他们编织封闭的“信息茧房”。
2023年7月,中国青年报社社会调查中心联合问卷网对1501名受访者进行的一项调查显示,62.2%的受访者感觉到“大数据+算法”的精准推送方式,使信息渠道越来越窄、信息越来越同质化,让自己陷入了“信息茧房”。
“‘信息茧房’是私人领域透明化与公共领域私有化双重变迁现象共同发力下的产物。传统媒体时代,公众往往作为旁观者,通过媒体消费少数人的隐私(明星、名流、官员、罪犯)。然而,数字时代,情况发生了根本性变化。每一位读者或观众在消费信息的同时,其个人隐私也在被平台媒介无声地收集和处理。”北京航空航天大学法学院副教授余盛峰直言,这种现象导致一种双重身份的产生:每个人都既是公共信息的消费者,又成为私人数据的贡献者,所谓的免费信息推送,实际乃是平台垄断的私人信息和公共信息的有偿交换模式。
“‘信息茧房’是伴随互联网发展而必然面对的问题。”对外经济贸易大学数字经济与法律创新研究中心主任、法学院副教授许可认为,互联网时代加剧了“信息茧房”现象。“信息茧房”的核心是大家希望寻找与自己相同的圈层,以前信息是中心化传播、均质传播,互联网经济是长尾市场,它自然就会把相同观点、偏好、喜好的人聚集起来,这是互联网的优势。
许可进一步分析,平台经营的竞争都是注意力经济,这需要更能吸引用户,增加用户黏性,而注意力经济的核心就在于如何增强用户在平台上的浏览时间。平台根据用户兴趣、偏好去推荐与之相匹配的内容信息,人们在算法营造的舒适圈内待的时间会越来越长,就能实现流量最大化和用户停留时间最大化。
“信息茧房”带来社会割裂
在李沐看来,内容的个性化推荐给她带来更多的是冲浪效率的提升,“不用花时间特意找,就能看到自己想看的内容”。但她也从自己母亲身上看到了平台这一招数的“奏效”。
“我妈以前根本不看短视频,今年为了查看亲戚转发给她的养生信息,下载了某短视频平台,但刷的时间也不多。今年奥运会期间,我妈对乒乓球燃起了热情,会在短视频平台上搜索对乒乓球球员们经历的讲解视频。而现在,我妈只要打开该平台,就会出现各种乒乓球球员间的‘恩怨情仇’视频推荐。”李沐笑言,现在她母亲刷短视频的时间大大增长,有时甚至会刷到凌晨1点。
诱导用户沉迷或许正是“信息茧房”带来的副作用之一。此次“清朗·网络平台算法典型问题治理”专项行动的主要任务之一就是深入整治“信息茧房”、诱导沉迷问题。《通知》还提出构建“信息茧房”防范机制、提升推送内容多样性丰富性、严禁推送高度同质化内容诱导用户沉迷等4项具体治理任务。
“在互联网时代,信息高速流通,‘过滤泡’和‘回音壁’是其非常重要的一个优势和发展方向。”但在许可看来,“信息茧房”的主要危害在于会带来观点极化,不利于个人成长和社会发展。人不能一直生活在自己的舒适圈内,必须通过不断接受新的事物及新的观点挑战从而成长,无论从个人发展还是从社会团结的角度,都需要越来越多的破圈沟通和共识;信息越多反而越闭塞,显然是与社会发展背道而驰的,会带来社会割裂。
去年9月,有陕西网友发帖称,在某短视频平台观看一则“男女吵架”视频时,发现自己和妻子看到的评论区留言内容竟然不一样。“吵架时候你背诵岳阳楼记,她都不会发现。”该网友这边的以男性立场为主;“很多吐槽女生的男生,真的想一想自己的问题吧!”妻子那边则多是站在女性立场的评论。
余盛峰解释,传统媒体时代形成了公共领域与私人领域的严格区分:在公共领域内,信息可以自由流通;在私人领域内,则强调隐私权利的保护。而“信息茧房”现象则揭示公共领域与私人领域的界限正变得愈加模糊。
“由此,公共媒体可能沦为平台私人化的‘茧房媒体’,而透明化的个体被封闭在由平台媒介根据个人隐私数据定制的信息环境中。”余盛峰指出,因此,当社会不再有隐私,即使信息爆炸式增长,信息的公共性却可能逐渐消失;而私人领域透明化带来的不是公共领域的繁荣,而是公共领域的私有化,甚至是公共领域的消亡。
关键在于如何打破平台与用户间的“正循环”
除了4项具体治理任务,在本次专项行动中,针对“信息茧房”现象,相关部门还在治理清单指引中设置了用户兴趣选择、用户标签管理、“不感兴趣”功能设置、防沉迷举措成效、个人信息权益保障5个“信息茧房”核验要点。
实际上,早在2021年,国家网信办就联合其他部门先后出台《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定》(以下简称《规定》),对算法治理提出一系列要求,其中就包括对“信息茧房”的具体管理措施。如《规定》中要求“算法推荐服务提供者应当向用户提供不针对其个人特征的选项”等。
“清朗·2022年算法综合治理”专项行动,也聚焦于督促重点互联网企业平台整改算法不合理应用带来的“信息茧房”“算法歧视”等问题。
“2021年算法治理以来,‘信息茧房’的现象是有相对减少的,治理是有效的。”许可及其团队在3年前和最近针对算法分别进行了两期调研,根据调研报告,“3年前,认为因为同质化内容陷入‘信息茧房’的受访者在40%以上,现在,认为受到‘信息茧房’的比例在30%多”。
尽管“信息茧房”现象相对减少,但其仍存在。从算法角度而言,这与平台算法的公开透明度不够、用户自主选择性不够不无关系。
“算法是黑暗模式,对平台来说,可以通过黑暗模式去操纵用户,使其陷入一种认知免驱。3年来,算法的透明度是有较大提升的。”许可坦言,治理“信息茧房”,关键在于如何打破平台与用户间的“正循环”,“用户看得越多,平台推得越多,平台越推,用户越看,形成了一个‘正循环’”。
对于如何打破“正循环”,在许可看来,对平台而言,监管部门应要求其在算法推荐中强行插入更多元的信息内容,而不是只根据用户需求提供信息。而治理“信息茧房”现象的根本在于加强用户算法素养,要增强用户对于算法应用的了解,然后其能够去评估算法的影响以及应对算法操作的技能。
余盛峰认为,“信息茧房”现象治理,主流监管思路是采纳“架构—规范—市场—法律”分析框架,仍然沿袭了平台媒介的既有商业模式,无法从根本上改变平台媒介持续收集用户数据的内在商业动机,有必要超越传统的“打补丁”式解决方案,探索更具创新性和想象力的制度方案。
发表评论