社交媒体是美国乃至全世界的人获得新闻的主要来源之一。众所周知,用户在获取新闻的时候会接触到一些虚假信息,包括阴谋论、标题党(clickbait)、伪科学(pseudo science),甚至捏造的“假新闻”(fake news)。
出现这么多的虚假信息并不奇怪。首先,垃圾邮件和网络欺诈对于犯罪分子来说是有利可图的;其次,政府和政治宣传需要这些信息维护自己的党派和经济利益。但是,低信誉内容如此简单和迅速地传播表明了,社交媒体平台背后的人或者算法容易受到操纵。
乔凡尼·卢卡·钱帕格利亚(Giovanni Luca Ciampaglia)是印第安纳大学网络科学研究所助理研究员(Assistant Research Scientist,Indiana University Network Science Institute, Indiana University);菲利普·门采尔(Filippo Menczer)是印第安纳大学计算机科学与信息学教授(Professor of Computer Science and Informatics),同时他还是复杂网络和系统研究中心主任(Director of the Center for Complex Networks and Systems Research,Indiana University)。在他们的研究中发现存在三种误差,能够使社交媒体生态系统有意或者无意的受到错误信息的影响。同时,印第安那大学社交媒体观察站(Observatory on Social Media)正在开发新的互联网工具,帮助人们意识到这些漏洞并保护自己免受外部的恶意攻击。
人们大脑中的偏差
认知偏差(cognitive biases)源自于大脑处理每天遇到的信息的方式。大脑只能处理有限数量的信息,而过多的传入刺激可能会导致信息过载。这会使大脑在处理社交媒体信息时,对其质量的判定产生严重的影响。对于用户有限的关注而言,激烈的竞争意味着即使人们更喜欢分享高质量的内容,一些质量低下的信息也会钻空子快速传播。
为了避免这种情况,大脑会有应对技巧。这些方法通常是有效的,但也可能在错误的背景下产生误差。当一个人决定是否在社交媒体上分享某个故事时,大脑会产生一种认知捷径。虽然一篇文章的标题不能很好的表示其准确性,但人们受到标题情感内涵的影响很大,文章的作者会产生更大的影响。
为了应对这种认知偏差,并帮助人们在分享之前更多地关注信息的来源,乔凡尼和菲利普团队开发了“辨假”(Fakey)应用程序,它是一款模拟典型社交媒体新闻的游戏,给用户推送来自主流新闻和低信誉来源的文章,用户经过筛选,通过分享可靠来源的新闻、标记可疑内容并进行事实核查来获取积分,这可以提高用户的新闻素养。在这个过程中,他们学会识别信息来源的可信度,比如不同党派的主张和情感丰富的新闻头条。
社会环境因素
社会是偏差的另一个来源。当人们直接与同龄人交往时,引导他们选择朋友的社会偏见会影响他们看到的信息。
乔凡尼和菲利普团队的研究结果显示,通过简单地查看其朋友的党派偏好(partisan preferences)就可以确定推特(Twitter)用户的政治倾向。他们通过对党派传播网络结构的分析发现,当社交网络紧密联系在一起并与社会其他部分脱节时,不论信息准确与否,它的传播速度都很快。
不管是有意还是无意地,如果信息来源于人们自己的社交圈,那么对信息的评估都是可以操作的。例如,在多党派竞争中,如果有好友一直在耳边宣传某一党派的优势,势必会受到影响。这也解释了为什么如此多的网络对话最终转变为不同群体的对抗。
为了研究在线社交网络的结构如何使用户容易受到虚假信息的影响,乔凡尼和菲利普团队制作了胡克西(Hoaxy),一个可以跟踪低信誉信息的传播途径,并将这个过程可视化的系统。通过利用胡克西将2016年美国总统选举期间收集的数据进行分析得到,分享错误信息的推特账户几乎完全与事实核查员所做的修正切断联系。
当深入了解传播错误信息的账户时,研究发现这些账户属于同一个核心账户组,他们之间相互转发的频率非常密集,甚至有一些账号是电脑操作的。而仅仅在质疑其合法性或与他们的主张相反时,这些账号才会引用或者提及事实核查组织。
算法造成的偏差
第三组偏差直接产生于社交媒体的算法。无论是社交媒体平台还是搜索引擎都会使用这些算法。这些个性化技术的目的是为每个用户选择最吸引人的相关内容。但这样做,最终可能会强化用户的认知和社会偏差,从而使他们更容易被操纵。
例如,在许多社交媒体平台中内置详细的广告工具,传播虚假信息的人们可以利用它,将信息进行修改,推送给那些已经倾向于相信虚假信息的用户。
此外,如果用户经常从脸书(Facebook)点击某个特定来源的新闻链接,脸书将更频繁地向该用户展示该网站的内容。这种所谓的“过滤泡沫”(filter bubble)效应可能会将人们从不同的角度隔离开来,从而强化确认偏差。
乔凡尼和菲利普的研究结果表明,与维基百科(Wikipedia)这样的非社交媒体网站相比,社交媒体平台让用户接触到的资源更少。因为这是在整个平台的水平上,而不是针对单个用户,可以称之为“均匀性偏差”。
社交媒体的另一个重要组成部分是通过点击量确定平台上正在流行的信息。研究还发现,如果某种算法的目的是促进流行内容,它可能会对平台上信息的总体质量产生负面影响,这种可以称之为“流行偏差”。这会助长现有的认知偏差,强化了不论质量如何,只要受欢迎就可以的风气。
所有这些算法偏差都可以被社交机器人操纵,社交机器人是指通过社交媒体账户与人类互动的计算机程序。大多数社交机器人,比如推特的“大笨钟”(Big Ben),都是无害的。但是,一些人隐瞒了他们的真实意图,将其用于恶意的目的,例如通过互相转发促进虚假信息的传播。
为了研究这些操作策略,乔凡尼和菲利普团队开发了一种检测社交机器人的工具,称为宝通计量(Botometer)。它可以通过查看推特账户的不同特征(比如发帖时间、频率以及互相关注的账户等等),利用机器学习来检测账户信息。虽然它现在还不完美,但已经检测到多达15%的推特账户为社交机器人。
在2016年美国总统竞选期间,通过将胡克西和宝通计量结合使用,乔凡尼团队分析出了错误信息传播网络的核心。这些机器人会给易受攻击的用户提供虚假的声明和错误的信息。首先,他们通过推特候选人的标签或提及转发该候选人,以此来吸引支持该候选人的用户的注意力。然后,机器人可以夸大虚假声明,通过转发来自低可信度来源的,与某些关键词相匹配的文章诽谤对手。
乔凡尼和菲利普团队制作的互联网工具为用户提供了许多关于辨别虚假信息的方法,在一定程度上可以保护人们免受伤害。许多研究表明,个人、机构的账号甚至整个社会都可以在社交媒体上被操纵,仍有许多问题有待解决。重要的一点是要发现这些不同的偏差是如何相互作用的,这可能会造成更复杂的漏洞。解决方案不会仅仅是技术上的,还必须考虑到认知和社会方面存在的一些问题。
责编:微科普