你看到的“言论”,或许都是“计算”过的宣传

社交媒体上充斥着各种营销号和机器人账号,这些账号发布的信息很多并不真实,继“后真相”后,又一个新名词“计算宣传”进入人们的视野。

计算宣传泛指使用算法、自动化和人工操纵等手段,有目的地在社交平台上生产、分发和操控虚假信息的传播行为。牛津互联网研究院2020年的一项研究显示(Bradshaw, Bailey & Howard, 2020),在全世界范围内有57个国家利用机器人(Bots)进行计算性宣传。2016年美国大选和英国脱欧,都有大量机器人在社交媒体上操控舆论。它们通过支持某一特定的政策立场,淹没其他不同声音。在英国脱欧事件中,1%的机器人用户,发表的内容占33%。

水军、僵尸号、营销号正在积极地“发声”,影响人们的态度和情绪。研究者发现,社交机器人占特定讨论参与者的5%~10%,就可以改变公众舆论,让它们的观点占主导地位(Cheng, Luo& Yu, 2020)

根据计算宣传的概念,人们看到的“发言”,很可能是别有用心之人的“投喂”。

这一切是如何实现的呢?

从微观的操作层面看,机器人发声不是为了创造某一种观点,而是让某一种观点变得更加瞩目(卢琳艳等,2021)。它们通过扩大声量改变舆论,扮演的是舆论场上的“大众”,而不是“意见领袖”。这让他们能够避免发布过多信息被社交平台识别,也可以扮演虚假的民意。

从宏观的舆论场层面看,计算宣传能够让主导方设置有利于自身的公共议程和媒体议程(赵蓓、张洪忠,2022)。它们是自上而下安排的“表演”,却假扮成自下而上的“民众的声音”,淹没政治对手的议题/议程设置,为自己产生虚假的受欢迎感。他们混合使用算法分发、机器人和政治行动者一起工作(罗昕,2020)

美国《医学互联网研究》(JMIR)2021年发表了一篇研究论文《机器人和错误信息在社交媒体上传播:对 COVID-19 的影响》(Botsand Misinformation Spread on Social Media: Implications for COVID-19),研究者调查发现,机器人传播了大量关于新冠疫情的虚假信息,人类对这些虚假信息,就像对新冠一样缺乏免疫力,相对于真实信息,很多人更愿意分享虚假信息,这很可能会影响新冠大流行的进程(Himelein-Wachowiak et al,2021)

计算宣传“制造同意”,加剧了互联网的撕裂。它削弱了公众对传统机构的信任,加剧社会分裂和政治两极分化(罗昕,2020)。如仇恨言论,即基于种族、宗教、族裔出身、性取向、难民、残疾或性别等属性对个人或群体进行网上虐待或威胁。

一项针对美国和菲律宾的案例研究显示,机器人发表了大量仇恨性言论,当机器人对信息流的操控能力变强,人们彼此之间的相互攻击就越多,进一步加剧仇恨性言论的社会影响(Uyheng & Carley,2020)

计算宣传也是一种武器化的意识形态。新冠初期,大量机器人发表了对新冠病毒及其危害性的错误认知、病毒起源阴谋论,以及疾病污名化,尤其是针对中国和亚裔族群的攻击(史安斌、杨晨晞,2021)。这些做法,对全球地缘政治格局产生了潜移默化的影响。

本文由:叶良辰 发布于衰仔网,转载请联系作者,并且注明出处:https://www.shuaizai.cn/3893.html

(0)
上一篇 2022年5月5日 下午7:43
下一篇 2022年5月5日 下午10:11

相关推荐

发表评论

您的电子邮箱地址不会被公开。

"衰仔网"是个包容的平台,我们鼓励原创!请各位投稿务必:图文并茂,切勿重复投稿,稿件如有侵权请于文章底部评论说明,严厉禁止一切违规违法内容!