智能媒体的伦理风险与规制路径

时间:2022-02-18 04:22:33

智能媒体的伦理风险与规制路径

人工智能技术的快速发展,伴随着一系列的政策、法律、伦理方面的挑战。智能媒体既存在人工智能的共性问题,也面临智能媒体的新问题,引发新闻传播学界和业界高度关注。本文从伦理视角,梳理我国智能媒体的相关伦理规范,审视其存在的伦理风险,由此提出智能媒体伦理规制路径。

一、智能媒体伦理规范问题的提出

人工智能技术的应用推动了智能媒体的发展。目前,国内智能媒体主要有两类:传统媒体转型的智能媒体,如澎湃新闻、界面新闻等;互联网企业所属的智能媒体,如今日头条、腾讯新闻等。我国媒体产业的发展经历了传统媒体、互联网和数字媒体、智能媒体三个阶段,不同阶段媒体产业的伦理问题呈现迭代递进的特点。对于传统媒体而言,媒体从业人员在生产经营活动的整个过程中起着主导作用,传统媒体的伦理规范主要表现为从业人员的伦理规范,即对信息采集、内容生产、内容传播等环节中所有媒体从业人员的伦理约束。我国现有的有关传媒行业从业人员的伦理规范文件如《中国报业自律公约》《中国新闻工作者职业道德准则》等,强调媒体从业人员应恪守道德自律,维护新闻报道的客观性和真实性。互联网和数字媒体的出现丰富了信息生产和传播的载体,打破了传统媒体的职业边界及信息流通机制,模糊了新闻信息与广告信息之间的界限,对媒体产业的伦理规范提出了挑战。智能媒体时代,媒体产业生产流程进一步重构,人工智能技术及设备成为信息采集、内容生产和内容传播的重要手段。在人工智能伦理规范方面,我国已的相关文件主要有《人工智能北京共识》《新一代人工智能治理原则——发展负责任的人工智能》《人工智能安全发展上海倡议》等,旨在规范人工智能的使用,以期实现人工智能的自律、善治、有序。目前,人工智能技术已经融入媒体产业生产经营活动的各个层面,媒体产业朝着技术与内容并重的方向加速变革。人工智能技术重构了媒体生产的整个流程,深入渗透到用户识别、信息采集、内容生产、内容传播等各个关键节点,在有效提高媒体产业生产效率和提升新闻信息精准传播能力的同时,也带来了新的伦理风险。

二、智能媒体的伦理失范风险

(一)数据不当收集与使用问题。隐私权是公民的一项基本权利,是指公民享有的私人生活安宁与私人信息依法受到保护,不被他人非法侵扰、知悉、收集、利用和公开等的一种人格权。目前,人工智能、大数据、云计算等算法科技使得网络用户的隐私空间被挤占。从伦理层面来看,用户有权利在网络空间中匿名,但是机器算法是冰冷的,它会借助社会公共利益之名采集用户个人信息并用于商业用途,这就产生了隐私权与公共利益的冲突。人工智能技术带来媒体行业内容呈现方式的变革,5G作为新一代移动互联网技术,其所具有的高速度、低功耗、低时延、泛在性、万物互联和重构安全等特性,将使媒体产业由以文字、图片和影像为主的“平面信息”传播,向以VR、AR和全景信息传播为代表的三维“立体信息”传播转变,这意味着媒体传播的信息会越来越实时化、在场化,用户隐私侵犯也随之变得更容易、更隐蔽。为了获得智能媒体的信息服务,用户往往不得不选择接受隐私条款,如同意提供个人身份信息、允许平台获取位置定位等,而且用户无法获知个人信息的使用范围,也无法取消授权或减少授权范围、授权期限。一些互联网平台和智能媒体经常过度收集一些非必要的用户信息,并永久性储存,这无疑加大了信息泄露和隐私侵犯的风险。(二)机器流量与数据欺诈问题。互联网流量是指在一定时间内对某网址的访问量,能够直观地反映用户对网站内容的喜爱程度,已经成为衡量网络文化产品传播效果的重要指标,也是互联网广告投放的重要考量因素。大数据时代,随着智能媒体的快速发展,机器流量的学习能力越来越强,在行为表现上越来越趋近于真正的用户。例如,网络安全服务商DistilNetworks的《2020恶意机器流量报告》指出,2019年恶意机器流量占比24.1%,恶意机器流量一直潜伏在真实的用户流量中,伺机抢占网络资源,牟取暴利[1]。也就是说,许多网站上的访问者不是用户,而是自动执行的机器程序。为实现某些商业利益操纵机器流量进行刷量,以此赚取广告主的广告费,这种行为实为数据欺诈。国际权威研究与咨询公司Forrester于2018年的《移动欺诈报告:营销人员的隐藏威胁》也表明,营销人员承认他们数据预算的很大一部分由于广告欺诈而浪费了。数据欺诈是一种非法的和有违社会道德的欺诈行为。当前,由于信息不对称和数据可见性的缺乏,移动广告欺诈问题愈加严重,破坏了智能媒体生态。机器流量刷量所带来的只是虚假的繁荣,从短期利益来看,流量造假是对广告主的欺诈,造成广告主营销费用的浪费,加剧广告主对智能媒体行业的不信任;从长远角度考虑,机器流量和数据欺诈将会阻碍智能媒体产业发展,侵蚀智能媒体产业链上的各方利益。(三)精准推送与信息茧房问题。智能媒体的精准新闻信息推送减少了用户在选择新闻信息时的冗余,但基于用户兴趣的新闻推荐本质上会不断强化用户固有的立场和观点,让用户困于同质化的信息茧房之中。而长期接触被筛选的精准信息,会导致“回声室效应”,即用户只关注自己感兴趣的领域,对其他方面却一无所知,这种现象会导致用户丧失批判能力,观点偏激,对事物不能公正理智地作出判断。精准推送和信息茧房会导致知识鸿沟的进一步扩大。“知沟”假说的提出者美国传播学者蒂奇诺认为,假如输入社会体系的大众媒介信息增加,社会中拥有较高社会经济地位的人会比社会经济地位较低的人更快地获取到信息,两个不同地位的团体之间的差距可能会越来越大,而非缩小。随着互联网媒体的发展,用户拥有更大的信息选择权,但个性化的新闻精准推送,会导致用户主动选择将自己困在信息茧房之中,不去拓宽自己的知识面,反而会加剧与其他群体的知识鸿沟。此外,在公共领域中,处于茧房中的人其观点是偏颇的,如果再与其他茧房中的人产生共鸣,会加剧自己的偏见,从而造成群体极化。社会协商的基础是社会公众具有一定程度的共同经验,在这种共识下人与人才能相互沟通与了解,而在精准推送的算法时代,信息茧房导致社会协商共同经验的缺乏,最终可能会削弱社会黏性。(四)网络洗稿侵犯知识产权问题。网络洗稿是指通过篡改、删减、调换来重现原创内容的独创思想,与传统的著作权侵权中的抄袭和剽窃相对应。智能媒体时代,网络洗稿变得更为智能,有些互联网媒体企业甚至开发出专业的洗稿软件,只要将原创内容放入其中即可一键洗稿。借助大数据技术对全网的爆款文章进行抓取,借用人工智能技术对文章进行同义词替换、语句重置等操作,短时间就能生产出一篇新的爆款文章。由于在形式上很难判定是否构成侵权,原创作者维权困难。网络洗稿是一种赢得用户注意力,获取互联网流量的便捷途径。从短期利益来看,互联网媒体平台的发展依赖于自媒体的繁荣,严厉打击网络洗稿,可能导致平台用户的流失;但从长远考虑,网络洗稿破坏了内容创作生态,打击了作者的原创积极性,影响平台的健康发展和自媒体生态。因此,对网络洗稿行为必须加大治理力度。

三、智能媒体的伦理规制路径

(一)基于用户数据授权的合理使用。在用户网络行为数据化的趋势下,保护用户的数据隐私成为智能媒体时代的难题。为了更好地为用户服务,实现更高的商业价值,智能媒体会不断深入挖掘用户的行为数据,从而实现精细的用户画像。对于智能媒体而言,用户数据越精准,数据价值就越高。但是并非所有类型的个人数据都能被用于商业。智能媒体时代,用户数据要分级保护,涉及用户高度隐私的敏感数据需要特殊的保护[2]。在1980年经济与贸易合作组织(OECD)的《隐私保护与个人数据跨国流通指南》(简称OECD准则)中,“敏感数据”这一概念首次提出,代指所有值得被保护的个人数据[3]。2018年5月25日,欧盟正式生效的《通用数据保护条例》(简称GDPR)界定的敏感数据类型为“种族或民族出身,政治观点,宗教或哲学信仰,工会成员身份,涉及健康、性生活或性取向的数据,基因数据,经处理可识别特定个人的生物识别数据”[4]。在我国,2020年10月1日实施的《信息安全技术个人信息安全规范》对个人敏感信息的界定:“一旦泄露、非法提供或滥用可能危害人身和财产安全,极易导致个人名誉、身心健康受到损害或歧视性待遇等的个人信息。通常情况下,14岁以下(含)儿童的个人信息和涉及自然人隐私的信息属于个人敏感信息。”个人敏感信息的类型包括个人财产信息、个人健康生理信息、个人生物识别信息、个人身份信息、网络身份标识信息和其他信息[5]。《信息安全技术个人信息安全规范》明确规定,在使用个人敏感信息时应取得个人信息主体的明示同意,并确保个人信息主体的明示同意是其在完全知情的基础上自愿给出的、具体的、清晰明确的愿望表示。通过主动提供或自动采集方式收集个人敏感信息前应做到以下两点:一是向个人信息主体告知所提供产品或服务的核心业务功能及所必须要收集的个人敏感信息,并明确告知拒绝提供或拒绝同意将带来的影响。应允许个人信息主体选择是否提供或同意自动采集。二是产品或服务如提供其他附加功能需要收集个人敏感信息时,收集前应向个人信息主体逐一说明个人敏感信息为完成何种附加功能所必需,并允许个人信息主体逐项选择是否提供或同意自动采集个人敏感信息。当个人信息主体拒绝时,可不提供相应的附加功能,但不应以此为理由停止提供核心业务功能,并应保障相应的服务质量[6]。智能媒体数据使用的伦理规范应建立在用户授权的基础之上,在授权范围内对数据进行合理的使用。(二)第三方流量数据监测与行业规范。人工智能技术使得数据造假的风险加大,也增加了治理的难度。传统媒体时代,内容质量是媒体关注的核心,也是最重要的竞争力;智能媒体时代,智能媒体平台的流量机制和竞价机制成为赢得用户和市场的重要因素,一些智能媒体企业为了获得经济效益制造虚假数据,广告主作为数据欺诈的直接受害方,也会加剧对智能媒体企业的不信任,不利于智能媒体产业的可持续发展。从长远发展角度来看,对于智能媒体平台及其利益相关方进行第三方数据监测并形成行之有效的行业规范,成为智能媒体产业发展的保障。一是引入第三方监测平台监测流量。与传统媒体相比,依靠大数据成长起来的互联网媒体企业具有技术优势、用户优势等资源优势,互联网媒体企业既扮演广告投放平台的角色,又扮演数据监测、流量评估的角色,在经济利益的驱动下有可能会进行数据造假。媒体和广告行业协会组织、大型广告主通过引入独立、公正的第三方监测平台对流量数据进行监测,并作为广告主、广告公司的决策依据,能有效规避造假这一问题。第三方监测平台专注于流量监测,相比于智能媒体本身更具技术优势和行业公信力,能够更加精准地排查异常流量,并且打通和整合各个渠道的数据,为广告主、广告公司提供更加精准的监测数据。目前存在的主要问题是,第三方监测平台发展尚未成熟,国内一些强势互联网企业,例如阿里巴巴、腾讯、百度等,会以保护商业机密为由排斥第三方监测平台进行数据监测,从而对推进第三方监测造成障碍。针对这一问题,可以依靠行业协会和大型广告主的力量,建立制度化的监测机制,推进互联网流量第三方监测的实施。二是制定相关的行业规范。市场监管部门和行业协会组织需要发挥其功能,形成一套操作性强、行之有效的行业规范。在数字营销领域,一些第三方监测平台率先了与虚假流量相关的行业报告和标准规范。例如,精硕科技2016年了《广告反欺诈白皮书》,对机器人虚假流量、视频类虚假流量及效果类虚假流量等进行解读。同年,品友互动联合群邑集团旗下的数字媒体平台共同了《数字广告反作弊最佳实践白皮书》,提出利用先进程序化技术防止流量作弊。此外,相关行业协会也制定了行业标准,监督广告流量造假行为,如中国无线营销联盟2017年的《移动互联网广告无效流量验证标准V.1.0》和《移动互联网广告可见性验证标准V.1.0》两大标准。从目前来看,智能媒体行业有关规范数据造假行为的相关制度和标准比较少,且约束力不够强,治理智能媒体产业链中频发的数据造假问题,还需要市场各参与主体长时间、全链条的合作。智能媒体平台需要从自身长远利益出发,促进行业规范的制定和落实,塑造诚实可信的平台形象。(三)公共信息与个性化信息结合推送。针对人工智能技术对用户进行精准推送可能带来的信息茧房问题,智能媒体新闻信息推送需要遵循公共信息与个性化信息相结合的原则。个性化推送的目的是贴合用户兴趣爱好,达到吸引用户注意力、实现商业价值的目的,其往往通过用户在社交媒体、搜索引擎等网络媒体中浏览、点击、分享的信息建立用户模型。而这些信息是私人化的,与个人的认知、情绪、态度息息相关,算法可以很好地识别并以此为依据判断该用户的信息接收偏好。与之相对的是客观、冷静、具有公共价值的公共信息,或许它们无法为智能媒体带来明显的流量提升,但这些信息对于用户整体环境的认知建构具有重要意义,因此,智能媒体并不能以无法获得高点击量为由拒绝公共信息内容的推送。对于智能媒体而言,需要保证具有公共价值和专业水准的公共信息的有效传播,保证用户能够有机会接受多方面、多样化的内容。对于推荐分发机制而言,需要智能媒体的推荐算法向具有公共价值的信息倾斜,保证用户在看到个性化信息推荐的同时接收相当比例的公共信息,让那些关乎个体以及社会长远利益的公共信息能够打破各种阻碍,畅通地到达每个个体[7]。(四)加强原创内容知识产权保护和自律。事实上,人工智能技术既可用于网络洗稿,也可用于原创内容知识产权保护。早在2007年,YouTube就逐步投入巨资建立起ContentID版权系统,协助版权所有者识别平台上的侵权行为,并让版权所有者在平台上能够选择直接获取收益或是直接删除内容。2017年,阿里巴巴文化娱乐集团联合阿里巴巴达摩院共同鲸观全链路数字版权服务平台,该平台通过搭载达摩院数据科学技术研究院的人工智能技术,可实现对视频的智能编辑,让其在全网范围可追溯。该平台在处理视频时,会对视频内容进行各个维度的分析,并为之打上两万余种标签,同时利用知识图谱对标签进行多维度编目。这样一来,视频内容就像拥有了“指纹”,易于搜索和识别,使得盗版内容毫无生存之地。值得注意的是,现在许多网络洗稿已经脱离了单纯复制文字内容的低级洗稿行为,而是融梗、融框架、融思路的高级洗稿行为,增加了判断是否构成洗稿行为的难度。现有的人工智能技术可以通过对比文字选段来判断复制比例,但对于高级洗稿内容还是难以识别。针对高级洗稿行为,智能媒体平台在完善原创内容检测系统,用技术手段保护平台原创内容的基础上,还应该大力发展人工智能与人工相结合的内容审查机制,对遭到用户投诉但机器无法识别的内容进行专业的人工审查,以此来保护原创内容。同时,智能媒体平台和行业从业者也需要加强知识产权保护自律意识。比如,微信公众平台建立的洗稿投诉合议机制,引入由坚持原创且无抄袭记录的个人作者这一“民间力量”来处理洗稿投诉,就是平台方提高原创保护力度的有效尝试。此外,平台方还应主动标注作品来源及作品中借鉴片段的版权归属,树立尊重版权、维护原创的正面形象。平台要加大对原创作品的奖励制度,比如给信誉良好的作品增加曝光、发放奖励等,激发作者的创新动力,并严厉打击洗稿、融稿行为,提高作者原创积极性,增强平台用户对知识产权的保护意识。(五)完善智能媒体行业进入和退出机制。完善智能媒体行业的进入和退出机制,提高智能媒体传媒行业伦理失范成本,有利于维护智能媒体行业良性竞争的市场环境,促进智能媒体行业健康发展。媒体行业的进入机制是国家规制媒体产业的重要措施之一。完善智能媒体行业的进入机制,一是支持和鼓励具有创新能力的智能媒体进入市场,二是提高智能媒体行业的准入门槛。2017年,国家新闻出版广电总局《新闻出版广播影视“十三五”发展规划》,明确提出打破层级和区域限制,加快图书、报刊、广播、电影、电视资源聚合、产业融合,鼓励支持传媒企业跨地区跨行业跨所有制兼并重组,培育一批主业突出、具有创新能力和竞争力的新型骨干传媒公司[8]。同时规划又指出,支持符合条件的新闻出版广播影视企业通过资本市场上市融资、再融资和并购重组做大做强。既支持传统新闻出版广播电视媒体控股或参股互联网企业和科技企业,同时也向社会资本敞开了大门,允许非公有制广播影视企业以控股形式参与广播影视制作机构改制经营。除此之外,对于申请进入媒体市场的新型智能媒体企业,政府主管部门需要加大资格审查力度,将履行社会责任作为智能媒体准入的必要条件,严把智能媒体市场准入关。媒体行业的退出机制是媒体生态自我调节与优化的有效手段,有利于淘汰不良媒体,净化媒体生态,在媒体行业管理中不可或缺。完善媒体行业退出机制问题在传统媒体时代就有讨论,政府相关部门制定了诸如《报纸出版管理规定》《期刊出版管理规定》等相关法规,明确规定传媒行业退出规则和一些法律问题。由于我国媒体行业的双重属性,其退出机制也应由市场和政府双重把控。当智能媒体平台违反伦理规范,比如传播违法违规内容、侵犯用户隐私、侵犯知识产权等,应加大规制惩罚力度。完善智能媒体行业的退出机制,首先需要政府出台相应的法律法规和行业规章制度,在进入机制、过程机制等已有制度的基础上,明确智能媒体行业退出的标准和程序,形成制度化、规范化的智能媒体行业退出机制;其次要充分发挥市场这一“看不见的手”的操控力量,提升市场力量在智能媒体行业资源配置中的重要作用;最后还要完善智能媒体退出的补偿机制。

四、结语

人工智能技术在媒体行业的应用,在提升智能媒体生产经营效率的同时,也带来了新的伦理风险,如数据不当收集与使用问题、机器流量与数据欺诈问题、精准推送与信息茧房问题、网络洗稿侵犯知识产权问题等,这些伦理风险问题亟须予以有效规制,进而为智能媒体发展创造健康有序的市场环境。对于智能媒体伦理风险的治理,建立基于用户数据授权的合理使用规范,是最为重要的规范路径,也是确保用户权益得到保护的必要途径。数据欺诈作为困扰互联网行业和智能媒体行业发展的核心问题,需要通过制度化的机制来规范智能媒体企业平台的数据行为,构建第三方流量监测机制,提高智能媒体企业数据欺诈的风险成本。无论是互联网企业所属的智能媒体,还是传统媒体转型的智能媒体,都应承担社会责任,寻求个性化信息与公共信息的平衡[9]。同时,要加强原创知识产权保护和自律,发挥智能媒体平台在原创知识产权保护中的关键作用,提升智能媒体平台和从业人员的自律意识和能力。由于媒体行业的意识形态特性,智能媒体行业并非一个完全开放的市场,需要政府完善进入与退出机制,加强对智能媒体平台的科学管理。

作者:廖秉宜 姚金铭 余梦莎 单位:1.武汉大学新闻与传播学院 2.武汉大学媒体发展研究中心