人工智能时代算法传播的伦理失范问题及其治理对策研究
随着计算机算法的进步,我们逐步步入到了人工智能的时代,2016年作为人工智能元年,人工智能技术以及相关的应用迎来了里程碑式的突破。新闻传播行业与人工智能技术的连接也越来越紧密,计算机算法推动了新闻的自动化生产和多元传播,重塑了媒体的内容生产方式及传播工作流程。算法传播所导致的伦理失范问题较之传统媒体时代有所不同。传统媒体时代的伦理失范问题更多的是因为传播者逐利而导致的黄色暴力新闻的发布以及媒介寻租等现象,而算法传播使得伦理失范问题更加频发,还因为大数据技术的成熟出现了隐私权被侵犯、低俗新闻泛滥、媒介审判等问题。因此本文分析了算法传播所导致的一系列伦理失范问题,并从传播主体、传播渠道、技术本身几个方面探究其原因,给出针对性规范对策,以期最大程度上减小算法传播导致的伦理失范现象,让人工智能技术在主流价值观的引导下发挥其自身优势为新闻媒体行业服务。
算法传播导致的伦理失范问题的表现
“信息茧房”加剧受众心理认知失衡。算法推荐是通过监控用户对新闻内容的浏览记录、阅读时长等数据判断用户的阅读偏好从而进行量身定制的服务,用户只会接收到自己感兴趣的内容,被大量同质化的信息包围。长此以往,在算法对新闻内容的层层筛选下,用户对信息的接受面越来越窄化,最终被禁锢在自我认知的“信息茧房”中。往往处于这种相对封闭状态下的用户是不自知的,他们会以为自己所看到的片面的信息是事实的全部,并且只能关注到与自己的想法相似的观点,沉浸在“回音室”当中,从而导致认知偏差。用户在一次又一次的寻求认同并得到同类群体的肯定后,容易形成盲目的自信和极端主义。斯通纳·詹姆斯将这一现象定义为“群体极化”现象,他认为群体极化就是团体成员一开始有某种倾向,在群体决策后变得扭曲并形成极端的观点。如2023年5月23日的“武汉妈妈”事件,武汉弘桥小学一名男教师在校内驾车时,将一名跑进其视角盲区的一年级小学生撞伤,后该学生因抢救无效去世。该学生妈妈在操场哀哭的视频被传到网上并不断发酵,公众对这为妈妈的妆容、穿搭等提出质疑,认为她有炒作的嫌疑。网络大V不断制造谣言煽动公众情绪,最终引发了对该学生妈妈的网暴。6月2日,这位妈妈因双重打击悲痛与欲绝跳楼结束了自己的生命。受众在这种恶意的信息茧房中认知出现了偏差,对这位妈妈进行了网暴,最终导致了悲剧的发生。
过度数据抓取形成的“全景监狱”。福柯在《规训与惩罚》中提出了“全景监狱”的概念,这一概念由英国哲学家的“圆形监狱”设想演变而来。圆形监狱描述的了一种环形的建筑,四周是被分割成一个个小单元的囚房,中间是一座瞭望塔,监视者可以在在瞭望塔上看到囚犯的一举一动,而囚犯却看不到监视者。福柯认为在当代社会,这种监视不止发生在监狱这种封闭的地方,在整个社会都存在“被监视”的情况。在人工智能时代福柯的“全景监狱”理论得到了有力的验证。数据是算法技术最核心的资源,只有对数据进行大量挖掘和监控,才能进行自动化的生产和推送。用户在网络上所有的行为都会被数据化处理,个人隐私随时随地都在被监控。而用户为了获得自己所偏好的信息就必须将自己的私密数据转让比如各种浏览记录、转赞评等。很多同公司旗下的APP数据也会互通,比如你在某社交类APP搜索某个产品的功能口碑等,很快这款产品就会出现在你的某个购物APP的首页。虽然各个app都推出了一些安全隐私设置,但是由于平台和用户之间的权力不对等,平台对用户的隐私保护条款往往都含糊不清且篇幅冗长,让用户无法清晰的知道自己会在哪个步骤会泄露自己的隐私。2023年1月4日美国《华盛顿邮报》报道Twitter平台有2.35亿个用户账号以及注册账号所用的电子邮箱地址被公布在一个线上黑客论坛上,这些被泄露账号的用户都有可能面临身份曝光、敲诈勒索、电邮诈骗等风险,而这已经不是Twitter第一次被爆出隐私泄露事件。
低俗新闻泛滥瓦解传统新闻价值。人工智能和算法推荐技术在新闻生产与分发的过程中大行其道,在新闻内容完全被用户的偏好所左右后,新闻价值逐渐被瓦解。尼尔·波兹曼早在《童年的消逝》一书中就提出在电视时代,儿童和成年人之间的变得模糊,儿童被迫进入成人的性爱、暴力中,童年在提前消逝。在其另一本著作《娱乐至死》中他认为一切公众话语都以娱乐的方式呈现,变得脱离理性、肤浅、碎片化,最终娱乐至死。虽然低俗化的新闻在传统媒体时期已经存在,但是算法技术的出现使得低俗新闻更加泛滥,已经演变成了危害社会风气的公共问题。现在判断新闻价值的标准只有浏览量、点赞量、评论量,为了能够让新闻获得更多的关注度,某些平台就会通过算法来迎合部分用户的猎奇心理,各种标题党、暗含色情暴力的新闻层出不穷,而真正重要的新闻却被这些“趣味”新闻给淹没。平台利用人性的弱点 不断强化这样的新闻内容输出,让这种低俗垃圾新闻夺走用户所有的关注。对于缺乏媒介素养的用户,特别是心智发展尚不成熟的青少年来说就像“吸毒”一样侵蚀他们的心智,这些低俗新闻会给他们的心理、思维和行为带来错误引导,也慢慢瓦解了主流的新闻价值观。
算法传播导致的伦理失范问题的成因
人工智能时代专业媒体的主体地位被削弱。人工智能时代,算法技术以及各个新闻聚合平台的兴起极大地削弱了传统专业媒体的主体地位。在新兴技术的赋权下,传播权力下放给了每一个受众,任何人都可以在公共社交平台发声。而这些用户都是没有接受过专业的职业训练的,很多人缺乏媒介素养,对于新闻事实的报道比较片面。虽然这使得新闻报道有了更多地角度,但是许多人会有意无意地滥用自己的话语权,从而导致各种谣言满天飞,影响社会舆论地走向。其次,各类新闻聚合平台承担起了新闻发布和编辑地责任,专业媒体的分发权转移到了平台媒体地手里。“今日头条”的CEO张一鸣曾在公开采访中表示“你关心的,才是头条”这也是众多新闻聚合平台的准则。为了大规模提高平台的新闻分发效率,实现利益最大化,他们通过算法给用户进行量身定制,实现精准推送,这样的新闻推送模式使得新闻审核变得愈发困难。在传统媒体时代把关人是新闻生产和传播环节中非常重要的一环,他们会从新闻内容、价值、乃至整个报道的过程中把关新闻,从而与主流价值观相一致。但之前的新闻把关活动之所以可以进行,是因为新闻具有公共性,大多数地用户可以接触到,但是算法分发下新闻的这种公共性被消解了,不同地用户多接收到的信息有着明显的不同,比如抖音平台同一条视频下方的评论区男女用户看到的不同评论的权重完全不一样。算法在无形中削弱了专业媒体的主体地位,从而引发一系列的媒介伦理失范问题。
算法工具理性与新闻价值理性的失衡。算法技术被引入中国,新闻的生产和传播开始改变,算法强大的数据运算和分析能力能够帮助新闻媒体更好的分析市场的变化,了解用户的需求,并且极大地拓展宽了新闻反馈渠道,与传统媒体相比是一大进步。马克斯·韦伯曾提出了“工具理性”一概念,工具理性强调的是把工具的功效发挥到最大,算法在新闻地生产传播工程中,既能满足用户地个性化需求,又能兼顾新闻的及时性和互动性,充分体现了其“工具理性”,但新闻的“价值理性”并未得到同样的发挥。一些新闻聚合类平台过度依赖无限放大算法的工具理性,为了快速获取公众关注度、吸引流量,只靠标题来吸引眼球,网络平台上充斥着各种“震惊xxx”“不看xx后悔一辈子”等各种耸人听闻的标题。这些新闻平台完全放弃了新闻的质量内容以及人文精神,及新闻的“价值理性”。“价值理性”强调的是伦理价值,是对人文主义精神的保护。而算法显然是没有情感和意识的,它只能将人类的一切活动和行为都转化成冷冰冰的数据,但新闻并不是单纯地追求即时性和热度,更重要的是传递真善美的价值观,真正好的新闻是有温度的。技术本身并没有是非对错之分,重要的是我们该如何发挥自身的主观能动性去使用技术,如果我们只是被算法牵着鼻子走,就会陷入“劣币驱逐良币”的恶性循环中。
商业化平台过度逐利缺乏主体责任。今日头条、一点资讯等新闻平台,都是为了获取高额利润而发展的。从一开始,他们就通过植入广告来赚取利润,从而在新闻产业中获得一席之地。这些媒体平台的创办者,都把经济收入视为其主要目标。这一管理制度在一定程度上激发了平台的发展潜能,也凸现了我国市场经济的优势,但过分强调经济利益,极大地削弱了其提高内容品质的动力。这些媒体的重点是如何获取更多的点击率和关注度,忽略了记者的职业道德。在“眼球经济”这片沃土上,算法能够迅速、不断地从各处“搬运”信息,并尽可能地吸引着用户,让他们可以不停地从网页中获得信息,用户不需要考虑自己要看什么,算法会根据用户阅读记录、兴趣等特点,自动地向用户提供信息。为了吸引更多的顾客,获得更多的利润,他们的新闻品质和内容都变得低俗化、娱乐化。同时,为了获得更多的利润,很多媒体都向用户推送各种形式的广告,这种做法是违背职业道德和社会道德的。另外,一些含有色情、暴力等负面新闻的报道,也给新闻界行业带来污染,而一些娱乐新闻,为了满足网友对明星的隐私的窥视,大肆炒作、消费网红、明星,这使得各种媒介伦理失范的问题频发。
对算法传播媒介伦理的规范对策
法律加强对新闻的监管机制。我国目前并没有制定专门新的闻法,现有的《中新闻工作者职业道德准则》等文件都是用来规范新闻的从业人员的,对于飞速发展的新闻行业来说,我国的法律制度还是比较滞后的。很多时候所出现的新闻伦理失范的问题无法可依,人工智能在新闻行业的发展更使得隐私泄露、追责困难等问题更加频发。好在,我国针对于网络安全、数据安全、个人隐私等重要议题的法律界定在不断完善。2017年6月1日我国正式施行了《中华人民共和国网络安全法》,其中二十二条明确规定了:网络产品、服务具有收集用户信息功能的,其提供者应当向用户明示并取得同意。2021年9月1日正式施行《中华人民共和国数据安全法》,其中第六条规定:各地区、各部门对 本地区、本部门工作中收集和产生的数据及数据安全负责。2021年11月1日正式施行《中华人民共和国个人信息保护法》,其中第十条规定:任何组织、个人不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。这些法律条例为处理商业平台对用户数据的过度挖掘提供了明确的法律规则,让个人信息泄露问题能够有法可依。不过新技术还在不断的涌现,很多相关案例仍游走在法律的灰色地带无法解决。互联网业务处于各种监管体系的夹缝之中,导致很多相关责任方互相推诿,因此对于各方的权责划分仍是我国法律建设和更新的方向。
打开算法“黑箱”提高透明度。人工智能时代的法律边界一定程度上规范了算法技术在新闻传播中的底线,但是对于技术本身的边界确认还是很难落实的。“技术中立论”认为,技术本身只是按照运行逻辑来完成任务,不应该承担任何价值观层面的责任。但是技术从来都不是独立运行的,是“人”创造的技术,那么其本身就会存在偏见或倾向。比如,智能识别系统认为“所有含有裸体的图片都涉及色情”,这就是一种偏见,难道诸如世界名画《马背上的夫人》等也要被贴上色情的标签?既然技术无法做到绝对的中立,那就需要将技术透明化。提高算法透明度是一道重要的技术道德问题。陈昌凤认为,提高算法透明化的途径应该建立在“开放伦理”的基础上,也就是强调用户的意识。在算法新闻中,用户既是用户,又是厂商,所以要把用户的认知、态度和需求融入到算法透明度的话语结构中,同时用户也是算法透明度的检验和问责的对象。当然完全公开算法内容可能会损害商业利益,也可能被不法人员入侵篡改程序,因此只需做到以下三点。第一,公开算法是如何收集、关联和解释数据的生成,其次是将算法透明度与其他道德准则如问责、同意、表达自由等的关系公之于众,三是提供技术可操作性的保证,比如通过算法审计、发布用户服务条款、制定有关道德准则等措施来保证算法的透明度。
平台自身严格监管承担主体责任。我国将新闻媒体视为党和政府的“喉舌”,新闻传播事业是以马克思主义新闻观作为指导思想的。而如今以经济利益为主要目标的新闻聚合平台,只注重用户规模、平台流量,完全把新闻真正的功能和主流价值观抛之脑后。人民日报曾多次发文批评以算法分发为核心运营模式的新闻聚合平台存在大量低俗内容,并且挤压了人工编辑的生存空间。中央网信办等相关监管部门也出台了各项管制规定,开展了多次的整治行动,但是平台的新闻伦理失范问题依旧频频发生。因此在不断完善法律法规的同时,还需要制定相应的行业规范,无论哪个行业只靠外在的约束来管制是不会长久的,只有自发的进行自我约束,行业内相互监督,形成行业规范,才能真正杜绝新闻伦理失范问题的发生。人工智能技术在不断的发展,各种新问题还是会不断涌现,新闻聚合平台只有恪守本分,坚持以马克思主义为指导思想,不触碰法律红线,严格自我监督承担主体责任,才能长久地发展下去。
结语
人工智能时代算法技术对新闻行业带来了巨大地变革。本文重点探讨了,算法技术在新闻传播领域地应用所引发的新闻伦理失范的问题。但是,从人类和技术的发展,到伦理问题的研究,技术如何为人类服务,如何控制技术带来的影响,都是学术界永恒的话题。目前算法技术在新闻传播的过程当中仍然面临许多伦理风险。但是我相信,只要不断加强我国的法律法规建设,提高算法技术的透明度、平台加强自身监管,在加上用户和媒体从业人员的媒介素养不断提升,算法传播所导致的新闻的伦理失范问题就一定能够逐步解决。
文章来源: 《声屏世界》 https://www.zzqklm.com/w/xf/24481.html
- 2025年中科院分区表已公布!Scientific Reports降至三区
- 官方认定!CSSCI南大核心首批191家“青年学者友好期刊名单”
- 2023JCR影响因子正式公布!
- 国内核心期刊分级情况概览及说明!本篇适用人群:需要发南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的学者
- 我用了一个很复杂的图,帮你们解释下“23版最新北大核心目录有效期问题”。
- 重磅!CSSCI来源期刊(2023-2024版)最新期刊目录看点分析!全网首发!
- CSSCI官方早就公布了最新南核目录,有心的人已经拿到并且投入使用!附南核目录新增期刊!
- 北大核心期刊目录换届,我们应该熟知的10个知识点。
- 注意,最新期刊论文格式标准已发布,论文写作规则发生重大变化!文字版GB/T 7713.2—2022 学术论文编写规则
- 盘点那些评职称超管用的资源,1,3和5已经“绝种”了