智能新闻信息分发算法偏见与伦理规制

时间:2022-04-24 05:21:26

智能新闻信息分发算法偏见与伦理规制

【摘要】算法技术介入智能新闻信息分发的过程中,提高了信息的传播效率,也引发了算法偏见这一伦理问题。从个人主体权利的角度看,算法偏见使用户的信息选择权和知情权遭遇严峻挑战。本文分析了算法偏见产生的技术逻辑,并从保障用户信息选择权和知情权出发,提出了一系列基于信息权利的算法伦理原则,包括自主性原则、公正性原则、最优化原则和透明性原则。

【关键词】智能新闻;算法偏见;信息权利;伦理原则

基于算法的“今日头条”的信息平台和信息推荐模式,某种程度上满足了受众的兴趣和需求,在精准定位受众、聚合受众上取得了成功。但是,其背后基于算法的精准推送,也让人们开始质疑算法的正义性。算法的信息过滤行为是不是客观中立的?是否变相地剥夺了用户的信息选择权?这种算法是不是用户真正所需要的?随着算法技术在智能新闻中的不断应用,算法偏见问题越来越多地出现在国内学者的研究中。有的学者将算法偏见进行分类,认为算法偏见主要包括互动偏见、潜意识偏见、选择偏见和数据导向的偏见(许向东,2018)。有的学者从算法风险的角度,探讨了算法应用新闻生产中带来的偏见风险,认为算法运行系统中的偏见因素会导致偏见的结果输出(张超,2018)。有的学者从算法伦理出发,研究算法价值偏向所涉及的伦理问题,包括信息茧房、回音壁效应、算法歧视、算法对传播权利重新洗牌、算法传播不易察觉价值偏向的信息等问题(董天策,2019)。还有的学者研究了分类推荐导致的“算法歧视”问题,认为算法歧视使个体独立选择与思考的空间不断缩小,个体在算法推荐的渗透下逐渐失去自我的决断权;这种信息偏向使受众的视野渐渐窄化,逐渐演变成信息时代的“井底之蛙”(陈昌凤,2017)。本文从信息权利的视角出发,聚焦智能新闻信息分发中的算法偏见问题,深入考察算法偏见产生的技术原理,探讨算法偏见给用户信息选择权和知情权带来的挑战,并针对算法设计者这一责任主体,提出规制算法偏见的伦理原则。

一、算法推荐中的信息权困境

智能新闻是以算法技术为核心,自动生成新闻和推送新闻的一种新型新闻形态。算法技术在智能新闻信息分发中的应用,一方面使智能新闻具有快捷、便利、个性化等优势,实现了“千人千面”的传播效果,在新闻聚合下的传媒生产中颇有市场;另一方面,也带来了信息分发的偏向,出现了算法偏见这一令人担忧的后果。目前,学界并未对“算法偏见”形成一个清晰而统一的定义。FranciscoSocal认为算法偏见是在看似客观中立的算法程序设计中,隐藏着设计者或开发人员的偏见,或者算法模型所采用的数据带有偏见(Socal,2018)。杨保军认为算法偏见是在新闻选题和报道中所体现出的价值判断的不客观、不公正(杨保军,2019)。因此,算法偏见是算法技术应用于信息生产与分发过程中,由于算法设计、输入数据、技术局限等因素造成的算法决策不客观、不公正的现象。在当前的智能新闻实践中,算法偏见不仅带来新闻的专业性、客观性弱化,还对用户的信息权利构成威胁,导致作为社会环境“瞭望者”的媒体日益偏离公众的期望。(一)算法推荐中的用户信息选择权。自从算法推荐技术在新闻分发中应用以来,不少学者认为算法让公众摆脱了专业媒体对信息的“操控”,拥有了自主、高效地选择个性化信息的权利。这一观点源于算法推荐技术被认为是客观中立的。由于基于算法推荐的信息分发过程不存在价值判断,而是根据用户的兴趣爱好推送信息,因而有的学者认为算法推荐技术把信息的选择权归还给了公众。2017年12月,“今日头条”因传播色情低俗信息受到了查处,这与企业盲目迷信算法推荐和智能分发机制有关。然而,企业却仍然声称算法技术不具有价值取向、新闻价值的选择和判断标准完全取决于用户,将责任转移给了用户个人。用户的信息选择权究竟是用户还是算法在主导?这一问题备受争议。实际上,尽管基于用户偏好推送信息是由算法自动完成的,但算法模型和个性化推荐系统是人为主观创造的结果,算法运行的代码和程序都是经过技术人员的设计,在算法设计的各个环节都会不可避免地受到人的主观影响。因此,算法推荐表面上似乎客观中立地推送信息,满足了用户自主选择信息的需求,事实上算法过滤信息的背后隐藏着深层次的价值偏见,用户对信息的自主选择权仍然在被算法所左右。信息选择权是用户自主选择信息而不受干涉的权利。用户的信息选择权以信息获取权为基础,意味着用户在获取信息的过程中,拥有选择自主性(纪向新,2014)。2011年9月,美国民众发起“占领华尔街”的游行示威运动,但在Twitter的“趋势发现”中却无法看到该事件的热搜。Facebook长期标榜其新闻推送是由智能算法自动完成的,然而其平台上关于新闻主播MegynKelly力挺希拉里而被福克斯开除的虚假新闻却被推至话题榜首位,这间接证实了Facebook的党派倾向(袁帆、严三九,2018)。在政治权力、商业资本以及算法设计者价值判断等因素的影响下,算法推荐并不是完全客观、中立地呈现信息,而是受到“主观过滤器”的隐形干预,这种干预导致的后果是用户无法自由而全面地接收信息,因此用户信息选择的自主性无疑遭到干涉。算法程序根据用户的个人数据与阅读行为建立“数字档案”,将某类信息只提供给某类用户而非其他用户,也阻碍了用户对信息的自主选择。例如,《华盛顿邮报》调查117名美国用户发现,Facebook会根据用户的性别、设备使用习惯、居住地、年龄等各种差别进行信息推送,将某些信息只推送给居住在农村农场而非城市里的用户,或推送给大部分女性用户而非男性用户。纽约大学社会学教授MarshallBlonsky认为,依据数字档案进行智能推送,是人为地给每个个体划定了边界(仇筠茜、陈昌凤,2018)。尽管算法推荐满足了用户的个性化需求,但算法程序根据用户的数字痕迹形成带有主观偏向的用户画像,圈定用户的所属群体,并决定分配何种类型的信息,这与用户的信息选择权的要义严重相悖。(二)“信息茧房”对公众知情权的困扰。目前,多数的算法和信息过滤,都是根据用户的搜索行为、点击内容、文字输入来判断用户兴趣和好恶的。对此,一些用户抱怨,往往因误点了一两条新闻,或者仅仅出于好奇点了一下相关新闻,就导致之后不断大量地被推送与之相关的其他新闻。只看想看的信息,听起来是一件很愉快的事情,但长此以往,用户很容易被隔离在信息的孤岛上,对外界信息缺乏了解。过去,哈佛大学教授凯斯•桑斯坦用“信息茧房”来描述这种现象,认为在信息传播中,因公众自身的信息需求并非全方位的,公众只选择使自己愉悦的信息领域,久而久之,会将自身桎梏于像蚕茧一般的“茧房”中(凯斯•桑斯坦,2008)。然而,今天的算法推荐是否会导致“信息茧房”或者信息窄化,在学术界仍然存在争议。有学者认为算法越来越多元,综合运用多种算法可以避免单一算法的刻板印象,算法的不断优化和其自身纠错能力都利于打破“茧房”效应(孙少晶等,2019)。还有学者认为“信息茧房”的形成取决于算法推荐机制、社交关系和个人心理等一系列条件。在个人层面,多样的阅读动机使我们不仅仅局限于自己认同的信息领域;在社会层面,丰富的社交关系不会让人们陷入狭窄的视野中;技术层面,不同类型、不同原理的算法甚至可能促进信息的多样性(方可成,2019)。由于目前的大量研究缺乏经验材料的支持,“信息茧房”的存在不具有客观性和必然性。但在中国的社会背景下,“信息茧房”的提出具有积极意义,尤其是警惕个人视野局限、避免观点极化等层面。“信息茧房”是两种传播思维相互碰撞的结果,传统意义上大而全的传播模式注重“面”上的拓展,而基于算法的个性化信息推荐则注重“点”上的深挖。因此,算法推荐在满足用户个性化需求的同时,不可避免地会限制用户信息的接触面(喻国明,2018)。目前,运用较多的是基于内容的推荐算法,这种算法通过内容和用户特征的精准匹配来推送信息。由于用户具有选择性接触心理,倾向于对与自己偏好相符的信息进行点赞、转发、收藏或关注,因而基于内容的推荐算法正是利用用户的这种心理,根据用户偏好持续推送相关信息,让用户在算法的诱导下不断地相信推荐、顺从内心的意愿选择信息。从这个角度而言,用户大量获取千篇一律的信息,容易身陷“信息茧房”。而一旦“信息茧房”产生,其带来的最大后果是窄化公众的信息接触面,将公众的视野禁锢在有限的信息领域,让公众失去了解外界的机会,这对公众知情权带来了困扰。公众的知情权主要包括三个方面的内容:知政权、社会信息知情权和个人信息知情权。知政权是指公众了解、知晓国家活动和国家事务的基本权利;社会信息知情权是指公众对其所感兴趣的社会情况进行了解的权利;个人信息知情权是指公民依法享有从他人、政府机关和其它组织等方面了解有关本人的信息记录的权利(周毅,2009)。“信息茧房”会造成隐性的言论自由剥夺,即互联网没有主动给浏览者提供他们应当获得的内容,但人们意识不到需求这些内容(胡婉婷,2016)。公众有权利了解与自己切身利益密切相关的信息,但束缚在“信息茧房”中容易使公众只关注自己感兴趣的某一类信息,而对其他领域的社会情况缺乏了解,阻隔了公众对社会信息的知情。这种对社会信息的不知情,不仅让公众难以根据社会环境的变化做出有效的行为决策,还将导致公众在公共事务的讨论和决定过程中缺席,难以实现有效的对话与沟通,造成公共性的丧失甚至无序化。对于那些媒介素养低下的公众,他们更加容易陷入信息茧房而不自知,几乎难以意识到其知情权受到侵害的问题。

二、算法偏见的生成逻辑

算法介入新闻生产中,由于缺乏人的参与,往往带有科学、客观的外在光环。这种客观性主要体现在程序运行或数据计算过程中的无偏差,但实际上算法在智能新闻信息分发的实践过程中却被揭露出隐藏着算法偏见。从技术原理来看,智能新闻在信息分发过程中的推荐结果,是由技术开发人员进行算法设计,并通过自动化程序驱动形成的。因此,算法偏见主要产生于算法程序的设计与运行过程中。(一)基于“流量至上”的算法设计。算法设计是技术开发人员设计算法程序的过程,这一过程涵盖了理解问题、选择算法设计技术、设计并描述算法、手工运行算法、分析算法的效率、实现算法等一系列步骤(王红梅、胡明,2013)。尽管算法程序是算法运行的主要执行者,但算法程序的运行效果往往取决于算法设计。选取何种目标变量(用户性别、点击频度、页面停留时长等),以及如何设定分类标签与权重,都会影响信息分发的结果。而算法设计往往隐含技术开发人员的价值取向,在理解问题、选取相关指标、设置权重、评估算法等算法设计过程中,技术开发人员的态度和价值观念都极易嵌入其中,造成算法推荐客观性的弱化(张超,2018)。2016年,Facebook“偏见门”事件揭露Facebook的趋势话题平台过滤保守派信息,却保留自由派信息(方师师,2016)。2018年,YouTube平台通过算法推荐激励发展一种以儿童为目标的亚文化,将充满猥亵和暴力的视频通过算法分发到专门针对儿童的应用程序YouTubeKids上(郝鹏程,2018)。这种将某些内容过滤、压制,并优先推荐其他内容的信息分发方式,实际上是算法偏见的一种表现形式,它会导致用户接收信息的失衡。在算法设计者主体意识的支配下,算法设计不仅受到设计主体自身价值判断的影响,还受制于算法设计者所置身的环境。由于算法设计者不可能独立于社会环境,其价值判断和行为决策不可避免地受到其所处环境的影响,而来自环境的干扰会直接被添加进算法设计之中。在竞争激烈、角逐流量的市场环境中,算法设计者很难不受到流量导向的影响,在算法设计中为低俗劣质的新闻赋予更多权重,并使低俗内容在用户点击后反复推荐,不断赚取点击量、流量。在“今日头条”推送色情信息被查处的事件中,企业认为算法推荐完全是根据用户的偏好来推送信息的,从而得出信息选择的主动权在用户手中。实际上,在媒体机构商业利益的驱动下,技术人员很可能遵循“流量至上”的原则,在算法设计的后台通过设置权重参数,加大低俗新闻的推送概率,推送吸引用户注意力的信息。而这些信息会诱导用户不断接触大量类似信息,甚至对算法推送的内容产生依赖,丧失理性选择信息的能力。因此,算法推荐不可排除背后的人工干预,也就不能简单地说算法推荐技术是完全客观中立的。对于点击量高的信息,算法也往往将其作为大多数人爱看的信息优先推荐。虽然这种信息分发方式以用户的态度和行为为中心,极大地释放了用户的传播权,增强了用户的主动性和积极性。然而,值得注意的是,这种以点击量为价值评估标准的算法推荐,极易被人为操纵的信息热度所蛊惑,因为点击量很多时候并不能真实地反映用户的态度和行为。YouTube往往根据信息的热度起伏向用户自动推送热门视频,而将冷门信息拒之门外,却忽略了人为刷播放量的行为。因此,在YouTube平台上,通过公关公司花钱在短时间内维持人气,就能靠这种虚假流量捧红一条视频。可见,算法设计将流量和点击量作为推荐价值评估标准,意味着由算法推荐技术主导的信息分发也存在较强的倾向性,难以保持绝对的客观、中立,算法技术的中立性只不过是一个并不存在的“神话”。(二)基于用户画像的个性化推荐。在今天的互联网上,所有的平台和网站都不会告诉用户他们搜索到或被推送接收的信息是如何遴选出来的,用户同样不知道,算法在背后已经对其进行了全方位的立体画像。在推荐系统中,用户画像是根据用户的社会人口属性、生活习惯、消费行为等特征抽取出来的标签化用户模型(塔娜、唐铮,2019)。从基于内容的算法推荐机制来看,在运用算法程序推送与用户画像相匹配的内容时,一般要经过这一流程:首先,提取信息特征,并将文本结构化和标签化。利用网络爬虫技术自动抓取信息,通过机器学习对海量数据标记,将信息分类。提取文本中的关键词、类型、n元组等特征,并对其进行量化建模,将其结构化后保存在数据库中(陈昌凤、师文,2018)。其次,构建用户兴趣模型。分析用户的基本特征(如年龄、职业、所处位置、使用的设备、接入网络的环境等)和行为特征(如点赞、评论、关注、转发、阅读时长等),建构用户兴趣图谱,并根据用户反馈进行动态更新。再次,计算用户兴趣和信息特征二者的相似度。计算每个文本和用户兴趣模型之间的相似度,呈现信息与兴趣的相关性指数,相关性较高的信息将置于推荐列表中向用户优先推荐。最后,对推荐信息进行过滤和消重,并辅以人工编辑,对机器忽略的具有新闻价值的信息进行补充。总之,基于内容的个性化推荐是对用户数据进行搜集、存储与分析,形成基于个人特征的用户画像,最后生成与当前用户兴趣爱好最相近的推荐内容。个性化推荐的技术局限也会带来算法偏见,其表现形式是过于迎合用户兴趣、一味地推送与用户画像相匹配的信息。在个性化算法推荐系统的应用中,新闻内容与用户画像匹配的精准度越高,用户越容易被圈进一个自己建构的信息闭环。由于算法假设用户当前的信息需求和其长期的个人兴趣相关,因而一旦用户点击某类新闻,算法自动认定用户近期都对该类新闻感兴趣,并给用户推荐此类新闻,而将与用户兴趣、意见相背离的信息排除在用户的视野之外。用户接触到大量相似内容的同时,其点击量也持续增加,进而带来推荐系统的持续推荐,最终经过不断循环往复形成一个顽固的信息闭环。尽管一些用户具有多元化的阅读兴趣,推荐系统中的海量内容也足以囊括用户感兴趣的信息领域,但持续推送同质化的信息无疑将减少内容输出的多样性。算法偏见的存在,使得推送内容过滤了与用户偏好无关的信息,极易加大用户陷入“信息茧房”的可能性,让每个人隔离在信息孤岛中,对其他信息一无所知,难以满足用户的知情权。

三、算法推荐的伦理设计

算法通常被视为一种单纯的技术,在技术中立论的语境下,算法偏见问题极易被掩盖,从而成为一个“隐性问题”。智能新闻中存在的信息偏向不仅阻碍了用户自由全面地获取信息,还损害了新闻的客观性和公信力。那么,如何规制算法偏见,逐渐成为智能新闻发展中面临的新挑战。算法往往处于伦理规制的视野之外,对算法进行伦理约束也常常遭到“技术乌托邦”支持者的排斥。然而,算法偏见给用户信息权利带来了种种侵害,这意味着有必要将算法偏见的隐性问题显性化,让算法受到伦理的约束和规范,并将其纳入伦理规制的范围之内。马克思•韦伯在《以政治为业》中提出责任伦理,他认为,责任伦理的遵循者不仅要具有意图上的善良,还要顾及自己行为的可能后果,并对可能的后果负责(叶笑云,2013)。行动者既要衡量实现其本身直接目的可能直接造成的后果,也应该考虑其行为对其他价值可能直接或间接造成的后果(帕森斯,2003:738)。在算法设计的过程中,责任伦理要求算法设计者具备责任意识,在设计算法程序、编写代码之前审慎地选择方案,防范可预知的不良后果。同时,算法设计者不仅要考虑技术带来的功能性利益,还要着眼于算法与社会的关系,充分考虑和尊重用户的个人利益环境,衡量对用户造成的影响。责任伦理为规制算法偏见提供了一个理论基点,不但适用于算法的伦理约束,而且对保护用户信息权利、重塑人本主义具有重要意义。基于此,笔者尝试以保障用户信息选择权和知情权为出发点,以算法设计者为责任主体,提出一种基于信息权利的算法伦理原则,以制约算法偏见,确定算法责任,保护用户信息权利。(一)自主性原则。自主性原则是指个人能够根据自我意愿自由支配其合法信息的权利,这种信息权利是一系列的权利束,而不是一次性的信息选择权。自主性原则源自康德的自由理论,康德从人的理性和尊严角度来界定“自主”,认为每个人都有绝对的价值和决定自己命运的能力,自主意味着要将他人作为目的而不是手段去尊重(庄晓平、康德,2011)。可见,自主性原则最基本的伦理观念是在尊重人的基础上尊重人的自我决定权。2018年12月18日,欧盟委员会公布《可信赖的人工智能道德准则草案》,其列举的十条需求原则中包括“尊重人的自主性”这一原则,强调推荐系统、导航系统和个人助理等AI必须支持用户的个人偏好,增强用户自我决策能力,保护用户价值观的多样性(张雅妮、徐曼,2018)。在智能新闻信息分发过程中,由于算法推荐技术本身存在局限性,再加上其背后隐藏着不少人为干预,干涉了用户对信息的自由选择。这种干涉行为说明算法设计并未将用户当作理性的个体,忽视了用户具有对自身行为进行理性思考、理性选择和对行为后果承担责任的能力,缺乏对用户的尊重,违背的正是自主性原则。因此,有必要通过自主性原则,尊重用户的主体性,让算法技术发挥人本精神,更好地为用户提供信息服务。自主性原则要求算法设计者在理念上承认用户拥有信息选择的权利,并在行动上尊重用户的自我决定权,不干涉用户的信息选择自由。但算法设计者不能只停留在不干涉用户信息选择的层面上,而应当设计算法促进和维护用户自主选择的能力,尽可能地帮助用户避免破坏其自主行为的因素。具体而言,算法设计者应增加用户选择的功能,让用户能够自行选择是否、何时以及如何让算法进行自动化决策。如果用户拒绝接受算法推荐的信息,可允许其通过点击某个选项屏蔽算法自动推荐的信息;如果用户对算法推送的内容产生质疑或不满,可为其提供自行修改的机会。比如,用户可以针对其个人的算法运行程序,选择性地调整相关的算法参数,优化算法推荐模型。自主性原则的实现,既要靠算法设计者充分给予用户自主选择的机会,也依赖于用户自身媒介素养的提高。用户只有不断提高信息辨别能力,增强算法素养,主动参与信息选择,才能更好地维护其自主选择信息的权利。(二)公正性原则。在新闻领域,公正性原则既是新闻传播的基本原则和要求,也是针对算法偏见和歧视问题所提出的伦理原则。算法设计应当遵循公正性原则,公平分配用户获得信息的利益和机会,保障用户获取、选择信息的公平性,利用算法技术的优势为社会公平和正义做贡献。罗尔斯在《正义论》中曾经提出正义的两大原则,一是自由平等原则,即每个人对与所有人所拥有的最广泛平等的基本自由体系相容的类似自由体系都应有一种平等的权利。二是差别原则,即社会和经济的不平等应这样安排,使它们:在与正义的储存原则一致的情况下,适合于最少受惠者的最大利益;并且依系于在机会公平平等的条件下职务和地位向所有人开放(约翰•罗尔斯,1997)。根据正义的第一原则,算法设计应当保障用户平等获取信息的权利,无论用户的身份特征如何,都不能受到带有歧视性的区别对待。在传播内容上,不能因种族、民族、性别、财富、地位等产生歧视或偏见;在信息获取机会上,不能因利益需求过滤、混淆受众搜索内容,更不能协助虚假内容的传播(袁帆、严三九,2018)。在技术条件允许的情况下,算法设计者可以在设计算法的过程中嵌入“机会平等”的概念,构建算法运行应遵守的技术公平原则。目前,国外已经有研究团队依据约翰•罗尔斯的公平技术定义及其“机会公平平等”的观念,引入“歧视指数”的概念,提出了设计“公平”算法的构想(许向东,2018)。根据正义的第二原则,在制定算法规则时要兼顾公正和效率,使社会中处境最不利的成员获得最大的利益。由于算法推荐往往根据用户的数字痕迹进行决策,而用户利用媒介资源的素养存在巨大差异,因此,算法决策的过程看似无差别,实际上却维系着社会的不平等。这一原则要求算法设计者不仅要维护媒介素养较高的信息优势群体的信息权利,还要将着力点放在媒介素养不足的信息弱势群体上,设计适用于弱势群体的算法,为其提供更具针对性的信息服务。(三)最优化原则。最优化原则最早出现在医疗领域,指医务人员应选择以最小的代价获得最大效果的诊疗方案,是行善原则、最小伤害原则在临床工作中的具体应用,在医学伦理学领域普遍应用。最优化原则在本质上是一种技术性原则(江璇,2019),因而对于算法技术而言,最优化原则同样适用。由于算法技术追求的不是满足人类基本的、最低层次的需求,而是发展性的、高层次的需求,因此当算法技术在实际中运用时,算法的设计和使用具有较大的选择空间。正是算法设计和使用这种可选择性的特点,突显了最优化原则的重要性。最优化意味着在算法技术利用之前,应对可能出现的风险进行预防,选择能将损失降到最低的算法设计方案。2019年4月10日,美国参议院参议员Cory和Ronwydan提出《算法问责法》,该法列出的高风险算法中就包括带有歧视性后果的算法、基于个人的地理位置、个人偏好、行为轨迹而作出的影响个人权利的算法等(朱朱,2019)。可见,算法技术的应用存在不容忽视的风险,算法设计既要满足当前的新闻生产与传播需求,更要对未来的算法风险做出合理地预判,降低风险发生的可能性。具体而言,算法设计者应遵循道德标准和设计规则,将社会、道德、环境等因素纳入到算法设计环节中,预设算法可能引发的问题。例如,对于给公众知情权造成困扰的“信息茧房”问题,尽管“信息茧房”是否存在仍然具有诸多不确定性,但算法设计可以通过技术手段不断评估、调整和优化算法,增强信息的多样性,避免“信息茧房”的产生。例如,《华尔街日报》在2016年创设了“红推送,蓝推送”,同时向用户推送脸书上同类内容的自由倾向、保守倾向的信息。这样一来,算法推荐的客观性将有所增强。算法技术的应用要最大程度地发挥技术的优势,避免产生不良后果,必须通过综合评估与分析进行最优化的算法选择。制定算法系统的风险评估标准,建立一个算法评估体系,并对算法风险进行日常的实时监测(张超,2018)。一旦发现算法存在缺陷或潜在风险,根据具体情况决定是否中止算法系统及其相关服务。归根结底,只有增强风险意识,做好预防和监督措施,才能在最大程度突显算法技术的优势,降低算法风险,实现算法技术运用的最优化。(四)透明性原则。透明性原则是向公众公开新闻生产的信源、方法,使其能够对新闻生产的过程进行监督、审查、批判甚至干预。2013年,凯利•迈克布莱德和汤姆•罗森斯蒂尔在《新闻记者的伦理:21世纪的准则》一书中将原来的“独立性”准则替换成“透明性”,并提出透明性的价值在于培育公众的智力独立,因为这样可以使报道者的主观性认知在报道中直接呈现,而不是将报道者的偏见暗含于中立的报道中(牛静,2019)。算法介入到新闻生产、信息分发领域,由于存在隐蔽性极强的“技术黑箱”,公众往往难以理解新闻的生产过程,无法对基于算法生产和推送的新闻进行独立判断,也就无法有效地监督算法的使用,防范算法带来的风险。因此,有必要通过透明性原则,提高公众对算法运作的监督力度,避免算法技术的滥用。透明性原则的推行不能仅仅停留在理念上,应该通过技术设计实施一定的算法披露,增强算法的可解释性,提高用户对算法的理解程度。算法披露的内容应当包括算法要素、算法程序和算法背景。算法要素披露,要求媒体公布数据质量、可信度、准确性、误差范围、采样范围、缺失值等要素,主动披露涉及公共利益的算法的源代码(张淑玲,2018)。算法程序披露,意味着算法设计可以增加决策说明的模块,向用户解释算法运算和决策过程,让用户了解算法的设计目标、运作机制、推荐特定内容的原因以及算法决策中存在的误差和缺陷。算法背景披露是向用户提示算法在新闻生产中的参与程度。在算法推荐信息之前,对新闻是否由机器人记者撰写、是否为算法技术推荐、是否存在人类记者干预等进行提示,并说明算法技术在实际应用中可能带来的偏见和误差;当用户与一个系统进行交互时,应当告知与其对话的是聊天机器人,而不是真人。这些信息的公开,能够在一定程度上破除算法的“技术黑箱”,满足用户对算法运作的知情权,提高用户对算法运作的判断力、辨别力和监督效力。

四、结语

智能新闻是人工智能技术的具体应用,而算法技术是智能新闻的核心。尽管我们还处于弱人工智能阶段,算法技术仍在算法设计者理解的范围内,却已给人类带来算法偏见问题,给用户信息选择权、知情权的实现带来严峻挑战。随着弱人工智能阶段越来越向强人工智能阶段迈进,算法引发的伦理困境将越发凸显出来,将算法技术纳入伦理规制的范围中将发挥越来越重要的作用。相比于法律的事后救济,构建算法伦理原则更强调预防的重要性,要求设计者在算法设计阶段遵循相关的伦理规则,在算法程序运行之前就考虑算法可能带来的伦理问题。这种预先主动承担道德责任的方式,将最大程度地避免算法技术的滥用,有效平衡人与算法的关系以及基于算法的人与人之间的关系。

作者:林爱珺 刘运红 单位:暨南大学