◎ByFilippoMenczer1)译/丁力
扫码听音频
TheTruthCanBeVeryHardtoDiscern
Ifyougetyournewsfromsocialmedia,youareexposedtoadailydoseofhoaxes,rumors,conspiracy2)theoriesandmisleadingnews.Whenit’sallmixedinwithreliableinformationfromhonestsources,thetruthcanbeveryhardtodiscern.
Infact,myresearchteam’sanalysisofdatafromColumbiaUniversity’sEmergentrumortrackersuggeststhatthismisinformationisjustaslikelytogoviralasreliableinformation.
Asaresearcheronthespreadofmisinformationthroughsocialmedia,Iknowthatlimitingnewsfakers’abilitytosellads,asrecentlyannouncedbyGoogleandFacebook,isastepintherightdirection.Butitwillnotcurbabusesdrivenbypoliticalmotives.
ExploitingSocialMedia
About10yearsago,mycolleaguesandIrananexperimentinwhichwelearned72percentofcollegestudentstrustedlinksthatappearedtooriginatefromfriends—eventothepointofenteringpersonallogininformationonphishing3)sites.Thiswidespreadvulnerabilitysuggestedanotherformofmalicious4)manipulation:Peoplemightalsobelievemisinformationtheyreceivewhenclickingonalinkfromasocialcontact.
Toexplorethatidea,Icreatedafakewebpagewithrandom,computer-generatedgossipnew—thingslike“CelebrityXcaughtinbedwithCelebrityY!”Visitorstothesitewhosearchedforanamewouldtrigger5)thescripttoautomaticallyfabricateastoryabouttheperson.Iincludedonthesiteadisclaimer6),sayingthesitecontainedmeaninglesstextandmade-up“facts.”Ialsoplacedadsonthepage.Attheendofthemonth,Igotacheckinthemailwithearningsfromtheads.Thatwasmyproof:Fakenewscouldmakemoneybypollutingtheinternetwithfalsehoods.
Sadly,Iwasnottheonlyonewiththisidea.Tenyearslater,wehaveanindustryoffakenewsanddigitalmisinformation.Clickbait7)sitesmanufacturehoaxestomakemoneyfromads,whileso-calledhyperpartisan8)sitespublishandspreadrumorsandconspiracytheoriestoinfluencepublicopinion.
Thisindustryisbolstered9)byhoweasyitistocreatesocialbots,fakeaccountscontrolledbysoftwarethatlooklikerealpeopleandthereforecanhaverealinfluence.Researchinmylabuncoveredmanyexamplesoffakegrassrootscampaigns,alsocalledpoliticalastroturfing10).
Inresponse,wedevelopedtheBotOrNottooltodetectsocialbots.It’snotperfect,butaccurateenoughtouncoverpersuasioncampaignsintheBrexit11)andantivax12)movements.UsingBotOrNot,ourcolleaguesfoundthatalargeportionofonlinechatteraboutthe2016electionswasgeneratedbybots.
CreatingInformationBubbles
Wehumansarevulnerabletomanipulationbydigitalmisinformationthankstoacomplexsetofsocial,cognitive,economicandalgorithmicbiases.Someofthesehaveevolvedforgoodreasons:Trustingsignalsfromoursocialcirclesandrejectinginformationthatcontradictsourexperienceserveduswellwhenourspeciesadaptedtoevadepredators13).Butintoday’sshrinkingonlinenetworks,asocialnetworkconnectionwithaconspiracytheoristontheothersideoftheplanetdoesnothelpinformmyopinions.
Copyingourfriendsandunfollowingthosewithdifferentopinionsgiveusechochambers14)opolarizedthatresearcherscantellwithhighaccuracywhetheryouareliberalorconservativebyjustlookingatyourfriends.Thenetworkstructureissodensethatanymisinformationspreadsalmostinstantaneouslywithinonegroup,andsosegregatedthatitdoesnotreachtheother.
Insideourbubble,weareselectivelyexposedtoinformationalignedwithourbeliefs.Thatisanidealscenariotomaximizeengagement,butadetrimentalonefordevelopinghealthyskepticism.Confirmationbias15)leadsustoshareaheadlinewithoutevenreadingthearticle.
Ourlabgotapersonallessoninthiswhenourownresearchprojectbecamethesubjectofaviciousmisinformationcampaignintherun-up16)tothe2014U.S.midtermelections.Whenweinvestigatedwhatwashappening,wefoundfakenewsstoriesaboutourresearchbeingpredominantlysharedbyTwitteruserswithinonepartisanechochamber,alargeandhomogeneous17)communityofpoliticallyactiveusers.Thesepeoplewerequicktoretweetandimpervious18)todebunkinginformation.
一个公开制造假新闻的网站ViralInevitability
Ourresearchshowsthatgiventhestructureofoursocialnetworksandourlimitedattention,itisinevitablethatsomememes19)willgoviral,irrespectiveoftheirquality.Evenifindividualstendtoshareinformationofhigherquality,thenetworkasawholeisnoteffectiveatdiscriminatingbetweenreliableandfabricatedinformation.Thishelpsexplainalltheviralhoaxesweobserveinthewild.
Theattentioneconomytakescareoftherest:Ifwepayattentiontoacertaintopic,moreinformationonthattopicwillbeproduced.It’scheapertofabricateinformationandpassitoffasfactthanitistoreportactualtruth.Andfabricationcanbetailoredtoeachgroup:ConservativesreadthatthepopeendorsedTrump,liberalsreadthatheendorsedClinton.Hedidneither.
BeholdentoAlgorithms
Sincewecannotpayattentiontoallthepostsinourfeeds,algorithmsdeterminewhatweseeandwhatwedon’t.Thealgorithmsusedbysocialmediaplatformstodayaredesignedtoprioritizeengagingposts—oneswe’relikelytoclickon,reacttoandshare.Butarecentanalysisfoundintentionallymisleadingpagesgotatleastasmuchonlinesharingandreactionasrealnews.
Thisalgorithmicbiastowardengagementovertruthreinforcesoursocialandcognitivebiases.Asaresult,whenwefollowlinkssharedonsocialmedia,wetendtovisitasmaller,morehomogeneoussetofsourcesthanwhenweconductasearchandvisitthetopresults.
Existingresearchshowsthatbeinginanechochambercanmakepeoplemoregullible20)aboutacceptingunverifiedrumors.Butweneedtoknowalotmoreabouthowdifferentpeoplerespondtoasinglehoax:Someshareitrightaway,othersfact-checkitfirst.
Wearesimulatingasocialnetworktostudythiscompetitionbetweensharingandfact-checking.Wearehopingtohelpuntangleconflictingevidenceaboutwhenfact-checkinghelpsstophoaxesfromspreadingandwhenitdoesn’t.Ourpreliminaryresultssuggestthatthemoresegregatedthecommunityofhoaxbelievers,thelongerthehoaxsurvives.Again,it’snotjustaboutthehoaxitselfbutalsoaboutthenetwork.Manypeoplearetryingtofigureoutwhattodoaboutallthis.AccordingtoMarkZuckerberg’slatestannouncement,Facebookteamsaretestingpotentialoptions.Andagroupofcollegestudentshasproposedawaytosimplylabelsharedlinksas“verified”ornot.
Somesolutionsremainoutofreach,atleastforthemoment.Forexample,wecan’tyetteachartificialintelligencesystemshowtodiscernbetweentruthandfalsehood.Butwecantellrankingalgorithmstogivehigherprioritytomorereliablesources.
StudyingtheSpreadofFakeNews
Wecanmakeourfightagainstfakenewsmoreefficientifwebetterunderstandhowbadinformation
spreads.If,forexample,botsareresponsibleformanyofthefalsehoods,wecanfocusattentionondetectingthem.If,alternatively,theproblemiswithechochambers,perhapswecoulddesignrecommendationsystemsthatdon’texcludedifferingviews.
Tothatend21),ourlabisbuildingaplatformcalledHoaxytotrackandvisualizethespreadofunverifiedclaimsandcorrespondingfact-checkingonsocialmedia.Thatwillgiveusreal-worlddata,withwhichwecaninformoursimulatedsocialnetworks.Thenwecantestpossibleapproachestofightingfakenews.
Hoaxymayalsobeabletoshowpeoplehoweasyitisfortheiropinionstobemanipulatedbyonlineinformation—andevenhowlikelysomeofusaretosharefalsehoodsonline.HoaxywilljoinasuiteoftoolsinourObservatoryonSocialMedia,whichallowsanyonetoseehowmemesspreadonTwitter.Linkingtoolslikethesetohumanfact-checkersandsocialmediaplatformscouldmakeiteasiertominimizeduplicationofeffortsandsupporteachother.
Itisimperativethatweinvestresourcesinthestudyofthisphenomenon.Weneedallhandsondeck22):Computerscientists,socialscientists,economists,journalistsandindustrypartnersmustworktogethertostandfirmagainstthespreadofmisinformation.
1.FilippoMenczer:菲利普·曼泽尔,印第安纳大学综合网络及系统研究中心主管,计算机科学与信息学教授
2.conspiracy[kənˈspɪrəsi]n.阴谋
3.phishing[ˈfɪʃɪŋ]n.网络钓鱼
4.malicious[məˈlɪʃəs]adj.恶意的,恶毒的
5.trigger[ˈtrɪɡə(r)]vt.引发,激发
6.disclaimer[dɪsˈkleɪmə(r)]n.免责声明
7.clickbait[ˈklɪkˌbeɪt]n.点击诱饵
8.hyperpartisan[ˌhaɪpəpɑː(r)tɪˈzæn]adj.极度拥护自己党派的
9.bolster[ˈbəʊlstə(r)]vt.支持,提高
10.astroturf[ˈæstrəʊˌtɜː(r)f]vt.伪草根营销,指的是表面以草根营销组织形式进行宣传,实则是由大公司或政治团体赞助,以影响大众观点为目的来开展活动。
11.Brexit:是对英国退出欧盟(简称“英国脱欧”)的戏谑说法,全称为Britishexit或BritishexitingfromtheEU。2016年6月23日,英国就脱欧问题进行全民公投,最终脱欧阵营胜出。
12.antivax:反疫苗运动。英美等国对于疫苗接种的争论由来已久,反疫苗观点的支持者一方面质疑疫苗接种的有效性和安全性,另一方面认为强制接种违反了个人自由和宗教信仰的原则。
13.predator[ˈpredətə(r)]n.捕食者
14.echochambers:“回音室”,喻指某类信息、观点、信念等在一个特定的圈子里通过交流和重复后会被放大或加强,而其他与之意见相左的信息、观点等会在这个圈子受到监管和屏蔽。
15.confirmationbias:证实性偏见,指过度关注支持自己观点的信息,而忽略掉推翻自己观点的信息。
16.run-up:(重要事件的)前夕
17.homogeneous[ˌhəʊməʊˈdʒiːniəs]adj.同种类的;同性质的;相同特征的
18.impervious[ɪmˈpɜː(r)viəs]adj.似乎不关注的,不受影响的
19.meme[miːm]n.迷姆,指的是一种流行的、以衍生方式复制传播的互联网文化基因。
20.gullible[ˈɡʌləb(ə)l]adj.轻信的,易上当的
21.end[end]n.目标,目的
22.allhandsondeck:齐心协力
真相可能难以辨别
如果你从社交媒体中获得消息,那么你每天都会接触到大量的恶作剧信息、谣言、阴谋论和误导性新闻。这些消息和来自可靠来源的可靠信息混杂在一起,真相可能就会难以辨别。
实际上,我的研究团队分析了哥伦比亚大学名为“Emergent”的谣言跟踪器上的数据,发现这些虚假信息和可靠信息一样会快速传播。
作为一名专门研究虚假信息如何在社交媒体上传播的研究员,我知道,限制新闻造假者销售广告的能力是一项非常正确的举措,谷歌和Facebook最近已经宣布这么做了,但这种举措并不能限制出于政治目的的恶劣做法。
利用社交媒体
大约十年前,我和同事们做了一个实验,结果显示72%的大学生都相信那些看似来自他们朋友的链接,甚至到了在钓鱼网站上填写个人登录信息的程度。这个常见的弱点让另一种形式的恶意操纵有机可乘:人们点击社交联系人发来的链接时,可能也会相信接收到的虚假信息。
为了验证这个想法,我建立了一个假网站,在上面发布了一些计算机随机生成的消息,比如“名人甲和名人乙被捉奸在床!”等等。访问该网站的人搜索人名时,会触发一个脚本,网站就会自动编造一个和此人相关的故事。我在网站上挂了免责声明,声称网站上有一些毫无意义的文字以及捏造的“事实”。我还在网页上挂了广告。月底,我邮箱里收到了一张支票,是通过这些广告赚的钱。这就是我的证据:假消息因为虚假污染了互联网,但却可以盈利。
遗憾的是,想到这一点的人不止我一个。十年后,假消息和数字化虚假信息成了一个产业。诱饵类网站编造假消息,通过广告挣钱。而所谓“超级拥护自己党派”的网站则会发布、散播谣言和阴谋论以影响公众舆论。
创建社交机器人或是设立由软件控制的账号都很容易,就像真人一样,因而也可以产生实实在在的影响。这极大地推动了假消息和数字化虚假信息产业的发展。我的实验室就通过研究发现了很多伪草根运动,也叫伪草根的政治营销。
为此,我们研发了一个名叫BotOrNot的工具来检测社交机器人。该工具还不完善,但是足够准确,可以揭露英国脱欧和美国反疫苗活动中的劝说活动。我同事利用BotOrNot发现,有关2016年美国大选的线上聊天有很大一部分都是机器人程序编造的。
制造信息泡泡
由于一系列复杂的社会、认知、经济和算法偏好,人类很容易被数字化虚假信息操控。有些偏见的产生是有原因的:相信我们社交圈里的信号,拒绝违背我们经验的信息——这些在我们躲避天敌的时代非常有效。但是在当今这个不断缩小的在线网络中,与地球另一边某位阴谋论者建立社交网络联系并不能让我的观点更明智。
跟着朋友人云亦云、取消关注意见不同的人,这些做法让我们身处严重分化的“回音室”中,研究者甚至只需看一下你的朋友就能十分准确地判断出你是自由派还是保守派。网络的结构是如此紧密,任何虚假信息几乎都能在瞬间传遍一个群体;而网络又是如此泾渭分明,以至于让这些消息无法传播到其他群体之中。
我们在所处的泡泡中选择性地接触那些与我们信仰一致的信息。这对于最大限度地与人交往很理想,但却不利于形成健全的怀疑精神。由于“证实性偏见”的影响,我们甚至看都不看内容就会分享某一头条新闻。
我们的实验室就有过这样的亲身教训。临近2014年美国中期选举时,我们的研究项目成了一个恶意的虚假信息活动的攻击目标。我们调查事情经过后发现,关于我们研究的虚假新闻主要被某一党派“回音室”里的推特用户所分享。这个“回音室”是一个规模很大的同质化社区,成员都是一些政治活跃用户,他们转推迅速,而且对信息的证伪并不关注。
快速传播无可避免
我们的研究表明,鉴于我们的社交网络结构就是如此,我们的注意力又很有限,这就决定了有些迷姆必然会快速传播,无论质量高低。即便个体倾向于分享更高质量的信息,但网络作为一个整体还是无法有效区分可信信息和虚假信息。我们看到一些恶作剧信息不受限制地快速传播,就是这个原因。
注意力不足也是造成这些现象的原因之一:如果我们关注某一特定话题,就会有更多关于这个话题的信息产生。编造信息并将其作为事实传播,比报道真实情况成本要低。而且编造信息还可以针对每个群体量体裁衣:保守派看到的信息是教皇支持特朗普,而自由派看到的信息则是教皇支持希拉里,实际上教皇谁也不支持。
受制于算法
由于我们不可能关注推送里的全部推文,所以我们看得见什么、看不见什么就由算法来决定。目前,社交媒体平台使用的算法都会优先推送吸引人的内容,也就是我们更有可能点击、回应和分享的内容。不过最近一项分析发现,有意误导的网页获得的在线关注和回应一点儿都不比真实新闻少。
这种重视博眼球高过事实的算法偏见也加剧了我们的社会与认知偏见。正因如此,在看社交媒体上的共享链接时,我们访问的资源要比我们搜索并访问置顶结果时范围更小、同质性更强。
现有研究证明,身处“回音室”会让人更容易上当,从而接受未经证实的谣言。但我们应该多了解一下不同人对恶作剧信息的不同反应:有的人会立刻分享,有的人会先进行事实审核。
我们正在模拟一个社交网络,来研究“分享”和“事实审核”之间的这场竞争。关于事实审核什么时候有助于阻止恶作剧信息的传播,什么时候无法阻止,相关的证据自相矛盾,我们想将之理清楚。初步结果显示,恶作剧信息的信众所处的社区越孤立,这类信息传播的时间就越长。这再次证明,恶作剧信息的传播不仅与它本身有关,还与网络有关。
很多人正在思考该怎么解决这些问题。马克·扎克伯格最近宣称,Facebook团队正在对一些有潜力的选项进行测试。此外,一群大学生提出,直接在共享链接上标明是否“经证实”就可以了。
有一些解决方法仍然无法实现,至少目前是这样的。例如,我们还无法教会人工智能系统区分事实和谎言。但我们可以利用排位算法,优先选择那些更加可靠的来源。
研究虚假信息的传播
如果知道虚假信息如何传播,我们与假消息的战斗就会更有效。举例来说,如果是机器人程序编造了大部分谎言,那我们就可以着力检测出这些程序;如果问题在于“回音室”,那我们就可以设计一些不会排除异议的推荐系统。
为此,我们实验室正在搭建一个名叫“Hoaxy”的平台,可以对社交媒体上未证实信息的传播以及相应的事实审核加以跟踪,并进行可视化演示。这样我们就可以获得现实世界的数据,然后用这些数据改进我们的模拟社交网络。这样我们就可以测试应对虚假信息的各种方法了。
Hoaxy还可以让人们知道自己的观点多么容易受到在线信息的操纵,甚至可以显示我们当中一些人在网络上分享谎言的可能性。Hoaxy会成为我们社交媒体观测台的工具套件之一。有了这个套件,任何人都可以看到迷姆在推特上是如何传播的。把这样的工具与事实审核人员以及社交媒体平台结合起来,我们就能更好地减少重复劳动,实现相互支持。
我们必须要投入资源来研究这个现象。我们需要各行各业的加入:计算机科学家、社会科学家、经济学家、记者以及业界合作者必须通力合作,坚决抵制虚假信息的传播。