如何反击网络操纵认知

在网络时代,人们的想法和行为正受到越来越严重的误导和操纵,日渐趋于极端化。

只有了解操纵的算法和操纵者如何利用人们的认知弱点,我们才能展开有力的反击。


作者   菲利波·门采尔Filippo Menczer

         托马斯·希尔斯Thomas Hills

翻译   张文俊


继续上期的内容。信息过载的情况下,认知偏差会使得这一问题更加严重。在1932年的一系列开创性研究中,心理学家弗雷德里克·巴特利特(Frederic Bartlett)给志愿者讲述了一个关于美国本土的传说。这个传说讲述了一个年轻人听到战争的呐喊声后,追逐着这些声音进入了一个梦幻般的战场中,最后他在现实中死去了。


巴特利特让那些非美国本土的志愿者在经过逐渐增长的时间间隔后,回顾这个令人困惑的故事。他发现,随着时间推移,志愿者在回忆故事时,倾向于曲解故事中他们不熟悉的那部分文化。他们要么丧失了这部分记忆,要么将其改编为自己更加熟悉的事物。我们现在已经了解到人的大脑一直以这样的方式运作:调整我们对新事物的理解,从而让它和我们已经了解的知识相匹配。这种现象也被称为确认偏差(confirmation bias),由此导致的一个结果是人们总是去寻找、回忆并理解的信息,往往是最能证实他们已经认可的想法的信息。


这种倾向极难被纠正。实验表明,即使人们面对包含不同观点的信息时,他们还是倾向于去找能支持他们相信的观点的证据。例如,对气候变暖持有不同看法的人在面对相同的信息(这些信息包含了各种观点)时,都会更加确信自己原本的立场。


搜索引擎和社交媒体平台会根据用户过往喜好的大数据,为用户进行个性化推荐,但这让问题变得更糟了。他们会优先提供用户本来就认同的数据,不管这些数据多么小众,这避免了人们接触那些可能改变自身想法的信息。因此,他们很容易变成极端化的目标。最近,尼尔·格林贝格(Nir Grinberg)和美国东北大学的同事们发现,美国保守派更容易接受虚假信息。


但我们对于推特上低质量信息的分析表明,这种脆弱性和政治派别无关,任何人都无法完全避免。即使是我们对网络操纵现象的侦查能力,也会受到政治偏见的影响,尽管这种现象在两个党派中并不对称:支持共和党的用户更有可能将机器人误认为推广保守思想的人,而民主党用户更容易将保守的真实用户误认为机器人。


社会的羊群效应


20198月的某一天,纽约市的人们奔跑着想要远离那些听起来像枪声的声音。跟随的人中有一些大喊着“有枪手!”后来,他们才发现枪声的来源是一辆回火的摩托车。这种情况下,先逃跑后再质疑确实是有好处的。在缺少明确信号的时候,我们的大脑会根据人群的信息作出合适的行为推测,这与鱼群和鸟群的行为是相似的。


这种社会从众性广泛存在。在2006年一项涉及1.4万位网络志愿者的有趣的研究中,马修·萨尔加尼克(Matthew Salganik)和哥伦比亚大学的同事发现,当人们能看到其他人正在下载的音乐时,他们最后也会下载相似的音乐。此外,当人们被隔离在一个“社会”团体内,能看到团体内其他人的喜好,但对团体外的情况一无所知时,各个团体的选择会迅速出现差异。但在大家相互不了解对方选择的“非社会”团队中,人们的喜好会相对保持稳定。换句话说,社交团体会创造强大的压力来促成一致性,并压制个人喜好。通过在早期随机扩大差异,它会导致被隔离的团体逐渐趋于极端。


社交媒体也遵循类似的动态变化。我们会将新闻的受欢迎程度与真实质量混淆,最终重复观察到的行为。比亚克·蒙斯泰德(Bjarke Mønsted)和丹麦科技大学以及南加利福尼亚大学的同事合作在推特上开展实验,结果表明信息是通过“复杂的蔓延形式”传播的:当我们反复接触到某个想法时,如果这些信息有着多重来源,我们更有可能接受并转发这一想法。这种社会偏见会被心理学家提出的纯粹曝光效应(mere exposure effect)进一步放大:当人们反复接触相同的刺激(如某些面孔)时,相比于不常遇到的刺激,他们会更喜欢前者。


这些偏差会转变为一种不可抑制的冲动,使得人们去关注那些病毒式传播的信息——如果其他所有人都在谈论该信息,那它一定是重要的。除了向我们展现那些与我们观点相符的内容本身,诸如Facebook、推特、YouTubeInstagram这些社交媒体平台还会将热门内容展示在我们屏幕的顶端,并且显示已经有多少人点赞和分享了。很少有人会意识到,这些暗示并没有对内容的质量进行独立的评估。


事实上,程序员在设计算法来评估社交媒体上的热点新闻时,已经假定了“公众的智慧”能快速分辨出高质量的内容。他们用热度代替了新闻的质量。我们对大量匿名的点击数据的分析表明,包括社交媒体、搜索引擎和新闻网站在内的所有平台,都会优先为用户提供一小部分从流行新闻资源中挑选出的信息。


为了了解原因,我们模拟了这些社交媒体如何结合信息的质量和流行程度,来建立评估系统。在这个模型中,代理人的注意力有限,他们只能看到新闻推送中最前面的一些新闻,因此也更可能点击那些平台推送靠前的热点。每条内容都有实际的内容质量和由点击次数产生的热度。模型中的另一个变量追踪了新闻的排名在多大程度上依赖于热度而不是质量。模拟结果揭示,即使不考虑人的偏见,这些算法偏差通常也会忽视新闻的质量。即使当我们想要分享最优质的信息,这种算法最终还是会误导我们。


回声室效应


我们中的大多数人并不认为自己会随大流。但是会跟随那些和我们观点类似的人。这一过程有时被称为同质性(homophily),即意见相同的人会倾向于组成一个群体。社交媒体会放大这种同质性——通过关注、删除好友等形式让使用者选择自己的社交网络结构。这样的后果是,人们会被分隔到一个有大量密集的误导性信息的群体中,从而越来越受到误导,这通常也被称为回音室(echo chambers)。


OSoMe,我们通过另一个名为EchoDemo的模型,探索了网络上回音室效应的出现。在这种模型中,每个代理人都有各自的政治观点,由从-1(自由派)到+1(保守派)之间的一个数字表示。这些倾向反映在代理人发表的帖子中。代理人还会受到新闻推送中的观点的影响,他们可以取关那些持不同观点的用户。从最初随机的网络和观点开始,我们发现社会影响力和取关的结合,极大地促进了极化和分隔的团体形成。而推特上的政治回音室十分极端,以至于用户的政治倾向可以被高度准确地预测出来——你的观点与你联系,关注的人大多是一致的。这种隔离的团体结构不仅能十分有效地传递信息,同时能使其中的群体与其他群体隔离。


2014年,一个假新闻团体造谣称,我们的研究小组出于一种政治动机压制了自由的言论。这种虚假的指控像病毒一样在大部分保守派组成的回音室中广泛传播,而由核查事实的人写的反驳文章主要在自由派中传播。遗憾的是,这种假新闻和对应的事实调查报告在不同的社群中传播是一种常态。


(本文为《网络如何操纵认知》中篇,下篇请见下期报纸)