财新传媒 财新传媒

阅读:0
听报道

摘要

“把关人”(gatekeeper)是上世纪80年代初最早被引进中国的新闻传播学术语之一。近四十年来,国内学者多从社会控制角度探讨把关机制及其在互联网时代的调适和实践,而忽略了把关研究传统中的一条重要线索,即“把关人”实际上是关于“社会现实”和“新闻真实”建构的重要研究模型。本文以“建构现实”为主线,梳理了不同时期的把关理论的嬗变,指出把关理论的两个重大转折:从“把关链条”发展为“把关网络”,从“人工把关”发展为“机器把关”。本文认为,在信息社会语境下,机器把关与现代社会的重构,可能是未来把关理论的一个重要研究方向。

关键词:把关人理论、把关人网络、机器把关

三、后真相时代:人工智能与算法把关

休梅克和瓦斯指出,互联网的出现,为我们带来职业把关人(professional gatekeepers)和个体把关人(laypersons)的双重把关时代。从内容生产角度来讲,激增的网民数量和日益提升的用户参与能力,淹没了原本控制新闻生产和传播的媒体出口。从全社会的信息生产比例来看,网络内容生产普遍民主化,任何个体都可以在互联网上生产内容。加之个体把关人主观性的把关原则,以及平台的大力推动,网络内容呈现数据化特征。由此,我们从经典事实(classic facts)阶段、数据事实(databased facts)阶段跃入网络事实(networked facts)阶段。戴维·温伯格(David Weinberger)说:“我们看见事实被人们捡起来,摔到墙上,它们自相矛盾,分崩离析,被夸大被模仿。我们正在见证牛顿第二定律的事实版本:在网络上,每个事实都有一个大小相等、方向相反的反作用。”(温伯格类比的应该是牛顿第三定律,此处作者有误。)

在这种环境下,客观性和理性原则成为装点不同政治立场的幌子,每种立场总能找到对自己有利的数据做支撑,而对自己不利的数据忽略不计。于是,“真相过渡到后真相,真相变成了复数的真相,每一个真相只能面对一种特定拟像下的数值。”我们认为,在网络世界,人工智能与算法机制成为“特定拟像”的具体表征,化作信息生产和组织的重要逻辑,进一步造就了大数据时代的“后真相”事实。我们开始进入一个崭新的把关时代——“机器把关”。

现阶段,机器把关主要体现为算法把关,人机协同作业。安德鲁·高弗里(Andrew Goffey)将算法定义为“为了解决问题而输入机器的一系列指令”。人们通过派发任务,利用人工智能和算法逻辑解决问题。而这些得以完成的前提,是互联网造就的巨大数据库。温伯格指出,网络化事实的一大特点是“大到不可知”。人们很难单纯透过脑力消化掉庞大的数据,因而要借助技术算法得出结论。从这个角度讲,大众传播时代新闻编辑和记者掌握的特权,现在发生了根本性转移:大数据赋予了算法巨大的权力。

2017年,中国互联网中心发布报告指出,基于用户兴趣的算法分发已经逐渐成为中国网络新闻的主要分发方式。路透社研究所(Reuters Institute)的报告指出,54%的受访者倾向于通过算法获取信息,44%的受访者选择专业的新闻渠道。算法已经成为塑造个体和社会认知的重要工具,并由此造成了一系列问题:被投喂的信息和内容;走向最小公分母的本能和趣味;对极端、丑陋和怪异新闻的强调;以及对“佯真”(truthiness)和“另类事实”(alternative fact)的偏爱,等等。

英国文化研究学者斯科特·拉什(Scott Lash)指出,“在一个媒体和代码无处不在的社会,权力越来越寓于算法之中。”米歇尔·威尔森(Michele Willson)将算法把关比作烹饪过程,数据是食材,算法是食谱,目标是做出不同的菜肴。这个比喻清晰地道出了算法把关的问题:食谱(算法)因制造者而异,菜肴是否美味亦因人而异。信息时代的算法把关丧失了大众传播时代对客观性价值标准的坚持。算法把关与新闻把关的根本区别在于,它不再以唯一的“真相”为导向。算法把关以“任务”(目标)为导向,为任务派发者的主观立场和目标而服务。例如新媒体平台为了盈利而要迎合用户,以用户关注度为把关标准来设计算法。另一方面,因为算法要将目标简化和指标化为可操作的一系列指令,这就决定了算法把关往往具有人为的主观性。比如王茜研究了“新浪微博热搜”的算法把关机制,指出新浪通过将“热搜”量化为时新性、流行性、参与性和导向正确四个指标,设置了一套特定的算法路径,建构了“大家正在搜”的拟像环境。实际上,这里的“大家”并不存在,存在的只是“热搜”算法按照预设的把关标准而对“大家”的建构。

此外,如其他技术一样,算法把关还受到设计者自身背景和意识形态等要素的影响,存在偏见甚至是错误,即算法路径设计的局限性。当信息把关标准从“真相”变成主观性的“任务”(目标)时,“真相”必然让位于后真相。从这个角度来说,算法把关进一步建构了后真相时代的社会现实。

具体来说,算法把关过程主要涉及三个环节,分别是算法抓取与生成、算法过滤和算法分发。路透社利用人工智能工具Lynx Insights协助记者在海量数据中抓取重要的新闻热点、采集信息和挖掘线索,并通过短信、电子邮件等方式发送给记者做参考。它声称,由于机器写故事不在行,而记者则往往在堆积如山的数据中苦苦挣扎,所以要建立一个“控制论新闻编辑室”——将机器能力和人的判断力结合起来,推动更好的新闻报道。2016年,路透社开始使用人工智能工具Reuters News Tracer(新闻追踪者)在Twitter等社交媒体上进行信息监视和数据分析,通过算法“过滤掉80%的垃圾信息,挑选出最相关的事件,确定它们的主题,排列出优先级,并生成事件的简短摘要和其他有用的指标”。虽说得益于人工智能系统和算法把关的即时性,路透社的突发新闻事件首发率多次领先于全球其他媒体,但在一定程度上,算法把关也决定了新闻的选题范围。记者基于算法筛选出的热点事件做深度发掘和报道,建构新闻真实。

同时,尽管机器只能写出糟糕的故事,这并不妨碍机器人写作愈来愈为新闻机构所采纳。“AI记者”开始上岗替代“人类记者”。目前,机器人写作主要应用于财经、体育等相对模式化的领域。AI记者根据预先设计好的模板和算法抓取信息,生成新闻报道。2014年,美联社与自动洞察公司(Automated Insights)合作,利用机器人写稿,完成财务报道。《华盛顿邮报》亦在该领域有丰富实践,拥有100多个新闻机器人。其中,人工智能系统Heliograf在2016年里约奥运会期间,通过分析比赛实时数据,整合信息与写作模板中的相关短语匹配,承担了大量有关比分和奖牌数的实时报道工作。然而也有学者指出,虽然机器人有一定的创造力,但是缺乏心智和人格,缺乏对事物的基本价值判断。智能机器通过学习文本创作的模板,可以实现从单纯性数据编写到一定程度上的“个性化写作”,然而社会现象的复杂性和人情感思维的变化难以让其在深度报道上作出较为准确的描述,因而需要记者和编辑进行对立场描写和价值选择的“把关”。

对算法过滤与分发的看法也是喜忧参半。卡里亚那拉曼(S. Kalyanaraman)和桑达(S. S. Sundar)从专业新闻生产角度分析了算法分发与网络把关结合运行的机制,并持一种乐观态度。网络时代,传统媒体、新媒体和用户出现了把关分工。以传统媒体为代表的职业把关人负责新闻生产和加工过程。另一方面,新媒体和用户负责新闻的分发与传播。以“谷歌新闻”为例,谷歌利用StoryRank算法决定如何从众多的媒体渠道中筛选新闻,实现了新闻的自动化组织和排列。算法根据早已设定好的主题、时效、可信度、新闻价值等指标,对不同新闻进行分门别类地编辑和排序,并展示在网站上。用户会根据个人偏好阅读、评论和转发新闻内容。由此,新闻进入社会网络把关环节。关注度高的新闻可以经过N次传播迅速在社交网络上发酵,形成公众舆论和社会热点。在网络时代,职业把关人为新闻内容负责,负责新闻真实的建构。新媒体和个体把关人负责新闻编辑和传播过程,建构社会真实。卡里亚那拉曼和桑达认为,与大众传播时代的单向传播模式相比,如今的交互传播模式使受众拥有了筛选信息和确认真实性的能力,是一种突破。

然而亦有学者指出,以用户关注度为导向的算法分发标准存在很多弊病,比如会造成有价值的新闻被忽视,而一些虚假信息得到广泛传播。尤其是在算法把关过程中,实际出现的情形往往不像卡里亚那拉曼和桑达所说,个人会在网络上自主地选择有价值的信息,相反,我们看到的是所谓“过滤气泡”(the filter bubble)的产生。

伊莱·帕里泽(Eli Pariser)用这个比喻来形容个性化驱动的算法系统如何将人们孤立在彼此隔离的内容流中。2010年4月,发生了举世震惊的英国石油公司墨西哥湾漏油事件,帕里泽发现,在这之后,如果使用谷歌搜索“BP”(英国石油公司的简称),一个人可能看到的是有关该公司的投资新闻,而另一个人可能看到的是英国石油公司所租用的一个名为“深水地平线”(Deepwater Horizon)的深海钻油平台发生井喷并爆炸、导致巨大的漏油事故的消息。这显然是某种推荐算法造成的结果。

帕里策把这种搜索引擎推荐算法阻碍人们认识真实世界的某些层面的现象称之为“过滤气泡”。 每一次搜索,都是在键入一个过滤气泡,让算法代表你来选择你所可能感兴趣的观点。同时,不断加强并固化的指标和算法取向,成为网络信息特定的组织路径,阻碍了不同类别信息形成新的组合的可能性。

社交媒体的兴起更加加深了这个问题,因为后者根据人们已经显露的偏好以及与之具有相似性的好友的偏好,为用户推荐内容。由于关注对象的选择,一个社交媒体用户的时间线上可能充斥着想法类似的帖子。通过这种个性化过滤,社交媒体正在塑造个人经历和文化事实,从而把相异的观点和自己不喜欢的人有效地排除在外。

由此,算法把关进一步引发了回声室效应和群体极化现象。首先,算法把关会造成个体陷入以自我偏好和认识为中心的回声室,重复建构和强化原有的“个体真实”;其次,社交媒体上的算法把关,往往会过滤掉相左意见,只向个体显示相同或相似的意见。一方面,这让个体以为自己的观点就是主流观点,丧失对事件的客观判断。另一方面,算法把关通过精准推荐将拥有相似观点的人组织在一起,形成一个个团体,制造了群体极化现象。每个群体拥有一套属于各自内部的、相对的“集体真实”,无数个这样的的“集体真实”叠加在一起,形成一个个主观性的、立场优先的复数“真相”,令一个社会良好运转的共识就此坍塌,不复存在。

四、结语

以互联网为代表的信息通信技术(ICT)改变了现代传播方式和媒介生态环境。相应地,新环境迫切需要能够解释新的社会现象的适应性传播学理论出现。这主要通过两种途径:一是提出全新的传播学理论;二是对经典传播学概念进行新的辨析。在本文中,我们从经典传统出发,试图对把关人理论予以重新概念化。尤其,我们以“建构现实”为主线,指出被很多国内学者忽视的一条重要把关理论研究线索,即把关人不只是社会控制模型,更是建构新闻真实和社会现实的重要模型。

在大众传播时代,虽然新闻从业者的个人行为、新闻机构的组织行为和社会体制等三个方面都会影响新闻真实性,但是从社会整体环境来讲,其时知识界仍然以“经典事实”为基础,寻求普遍性的知识。同时,新闻界以客观事实作为主要信息价值标准,致力于建构以真相为核心的“新闻真实”。互联网技术的出现,改变了现代传播模式,进而改变了社会媒介生态环境。与大众传播时代的“经典事实”相对,大众自传播方式使我们进入了“网络化事实”和“数据化事实”阶段。相应地,把关理论亦从“把关链条”发展为“把关网络”,从“人工把关”发展为“机器把关”,现阶段表现为以人工智能和算法把关为主的人机协同作业。我们探索性地以把关理论的发展为工具,进一步分析了“后真相”社会得以出现的重要原因:在智能媒介时代,信息把关主体——机器(智能算法),不再以“真相”为导向,而以任务为导向,结果是,我们不再主动寻求信息,而是听凭信息自动到达我们手中,被我们的兴趣和个人信念所过滤。

最后,以人工智能和算法把关为代表的机器把关,不仅彻底重写了旧有的新闻信息业和“知识界”的把关人概念,也因其建构现实的能力,成为信息社会生产和组织的重要逻辑。比如2020年国内的社会热点“被困在算法里的外卖骑手”,就是机器把关正在规范并重组现代社会生产关系和生活方式的具体表现。我们认为,在信息社会语境下,机器把关与现代社会的重构,可能是未来把关理论的一个重要研究方向。

 

(注释从略,原载《新闻与写作》2021年第8期)

 

话题:



0

推荐

胡泳

胡泳

642篇文章 1次访问 4小时前更新

北京大学新闻与传播学院教授,博士。中国传播学会常务理事,中国网络传播学会常务理事,中国信息经济学会常务理事。国内最早从事互联网和新媒体研究的人士之一,有多种著作及译作,是推动中国互联网早期发展的最有影响的启蒙者之一。欢迎关注胡泳的微信公号:beingdigital,讨论数字化时代的生活设计。

文章