新媒体环境下智能算法推荐技术的新闻伦理思考
算法推荐满足大众对定制化信息的需求
随着互联网技术的发展,智能移动设备的普及,受众已经摆脱了以往传统的信息接收方式的种种限制,从而可以实现随时随地的获取自己需要的信息。信息传播技术的发展,传播主体的增多,也导致信息总量的极大丰盈,如何抓住受众的注意力就成为媒体思考的首要问题。算法推荐是通过大数据技术,将受众的信息搜索、信息浏览等数据进行收集、分析和比较,了解受众喜欢的信息类型,信息接受习惯,从而对每个用户进行精准的用户画像。根据受众的兴趣和信息需求,进行新闻信息的个性化推送,以此来满足了人们对信息的个性化需求,同时极大提升人们获取信息的效率。
当受众接收到个性化的推送信息时,算法系统会根据用户在各类型信息的浏览时间、评论、举报、转发等互动行为,进一步精确受众的兴趣爱好,探寻用户的信息寻求规律,从而对用户的信息需求和信息态度实现更加全面和精准地分析和考量。通过持续搜集用户行为数据,不仅可以明确用户当前的信息需求和喜好,还可以对其未来的信息需求进行预测和推断,使平台的信息分发能够与受众的需求保持高度一致。其次,这样精准的反馈还能够帮助信息平台进一步地了解受众的经济水平、认知水平以及消费模式,完善对用户的画像。在这个信息爆炸的时代,智能的算法推荐技术能够帮助人们节省时间和精力,满足人们的个性化的信息需求。
智能算法推荐技术引发新闻伦理失范
“信息茧房” 导致用户认知失真。“信息茧房”这一概念自算法推荐技术问世以来,就成为了学者们热议的话题。究其根本,这一理论关注的是信息媒介如何通过精准的用户画像,按照用户的兴趣偏好来推送信息。长期以往,受众可能会沉迷于这种定制化的信息环境,以至于忽视了那些真正有价值的信息和内容。
更为严重的是,长期处于一个相同的意见氛围之下,会强化人们对某一观点或态度的认知,产生一种“回音壁”效应。当相同的声音或观点不断在受众耳边回荡时,这无疑会对他们全面地认知世界造成困扰。就如同被困在自我构建的信息茧房中,只能听到自己喜好的声音,而无法接触到其他有价值的信息和多元化的观点。
这种现象在社交媒体和新闻应用中尤为明显。通过算法推荐技术,这些平台能够根据用户的浏览历史、点击行为和偏好来推送相应的内容。虽然这种个性化的推荐能够提高用户的使用体验,但也可能导致用户的信息环境越来越狭窄,使得他们无法接触到不同的观点和意见。
“信息茧房”的负面影响不仅限于个人的视野和认知。从更宏观的角度来看,如果一个社会的大部分人都被困在自我构建的信息茧房中,那么公众的舆论环境就可能变得单一化,甚至可能引发社会撕裂和冲突。因为当人们只能接触到和自己意见相同的观点时,他们可能会对其他群体产生误解和偏见,进而导致社会的不和谐。
算法推荐侵犯个人数据与隐私。随着社会的发展,公众与媒介的接触变得越来越频繁;同时,随着互联网技术的发展,移动智能设备的普及,让信息的记录和存储都变得轻而易举,民众通过互联网进行的每一次操作都会变成一行代码,被上传至大数据平台当中。在大数据时代,每一个社会公众都是透明的,民众对于个人信息的保护变的愈发困难的同时,个人隐私被侵犯的机率也大大增加。
近些年来,算法推荐技术一直受到国内外新闻媒体APP和各类社交媒体的追捧,通过智能机器人来抓取用户的浏览信息、搜索记录、页面停留时间、点赞,评论,转发等互动行为的数据,通过此类数据对用户画像进行勾勒,从而进行精准的信息分发。但是,当民众为了自身寻求信息的便利,在一个个授权提醒的弹窗下点击同意时,也就让渡了自己的隐私权。民众的一举一动都转化为数据被上传至了后台,但是公众却无从知晓,这种操作的不透明性就使一些平台催生以用户的隐私来换取经济利益的想法。当社会公众在信息平台上想要了解某个商品,从而对其进行搜索,下一秒,这个商品就会出现在购物APP的首页上并且会通过信息弹窗这种形式推送到受众的面前。
智能算法推荐技术的设计初衷在于提升人们获取信息的效率。通过收集和分析用户数据,该技术旨在深入了解受众的需求和喜好,以便更好地为用户提供定制化的信息推荐服务,从而成为用户信赖的伙伴。当用户逐渐开始接纳这位朋友,相互的了解进一步的加深,为了商业利益的考量而变得不那么忠诚。人工智能技术的确给人类社会带来了极大的便利,促进了信息社会的发展。但同时,它也对人的隐私权造成了极大的侵害。
算法推荐导致虚假新闻 低俗信息泛滥。智能算法推荐技术,作为一种客观的数学表达,本应纯粹以数据和算法为基础,不掺杂任何猎奇、偏见、歧视等不良因素。然而,回顾我们所处的信息环境,可以看到猎奇、低俗的新闻和信息广泛流传,充斥着我们的社交媒体平台和新闻网站。这种现象应该引起我们的关注和反思,以确保信息传播的公正、客观和优质。算法偏见其实是指,在客观的算法程序的研发当中,参与研发的人员本身带有的偏见和歧视的色彩,毕竟程序可以是客观的,但是人在改造客观世界时不可能做到完全的客观,必然带有一定的主观倾向。其次,算法偏见也有可能是采用的数据具有某些倾向性。毕竟,智能算法就是通过对数据的采集和挖掘,进而对数据进行分析和总结,数据的体量大小,准确性都会对算法程序造成影响。同时,算法研究人员的选取的数据分布状况,对算法进行的测试都有可能使主观的偏见披上技术客观的外衣。
如果研发算法程序的程序员本身就带有某种偏见或倾向,那么算法程序本身就不可能是客观的。况且,算法研究的背后还是媒体机构在主导,那么一些商业媒体机构为了自己经济利益的考量,吸引流量,或许在推荐算法研究之初,就会为那些猎奇、低俗的信息留有后门。即使这些信息不是受众主动寻求的,但当其出现在受众的视野中,人们还是会无法抵抗猎奇心理的诱惑,将大量的时间和精力花费在它们身上。这种低俗信息的传播不但会危害受众个人的价值取向,还会对整个社会的信息传播环境造成恶劣影响。
如何克服算法推荐对新闻伦理的冲击
明确算法推荐中的“主流价值”观念。在推荐算法应用之初,就引起了很多的争论与指责。一些互联网通过技术中立,算法无罪等论调来为自己辩护,声称算法推荐只是对信息进行分发,并不会对信息内容进行加工。因此,把关就显得没有必要。但这是正是利用工具的理性来为逐利行为打掩护,技术中立并不意味着价值中立,当前算法推荐为虚假新闻和低俗信息助推的局面正是因为算法推荐背后的价值观出现了偏差。作为客观的数学表达的算法程序,虽然不具备价值观,但当它介入到新闻生产中时,算法背后的媒介平台和算法的研发者,便应当承担起自身的社会责任和价值导向。在算法研发时,应该在保证算法可行性的基础上,将健康的“主流价值”刻入到算法之中。
首先,可以在关键词上下功夫。对于新闻生产过程中的关键词,我们应该减少那些低俗、猎奇的内容出现,多分发一些积极、健康的信息内容。通过优化关键词的筛选机制,我们可以有效地抑制不良信息的传播,提高新闻的质量和价值。
其次,使算法推荐更加多元化。算法推荐不能仅仅以受众的兴趣和爱好为准则,而应该为受众推送更加多元化的信息内容,打造一个全面的信息空间。例如,对于同一事件或主题,我们可以从不同的角度和视点来报道和分析,让受众了解到事情的多面性和复杂性。这样不仅可以提高受众的信息素养,还可以促进社会的多元思考和交流。
此外,对于算法的评估和监督也至关重要。应该建立一套科学、公正、客观的评价体系,对算法的推荐结果进行定期评估和监督。如果发现算法存在偏差或误判,我们应该及时修正和调整。同时,我们也需要加强对算法研发者的培训和教育,提高他们的职业素养和社会责任感。
增强算法设计中的把关意识 提升算法“透明度”。算法的运行规则、数据的搜集和处理都会包含着算法研究者的主观倾向,他们个人的伦理和道德标准都会潜移默化的植入到算法程序当中,对信息的分发造成影响。如果算法的研究者缺乏了对价值理性的思考,那么算法在新闻领域的发展就会受到限制。因此,算法的研究在设计算法的底层逻辑时,就必须以健康的价值观为引领,遵守社会的道德和价值准则。同时,也应该对算法的研究者进行把关,对其资质和品性进行审查,如果研究者本身的伦理道德就出现了问题,那么其研究出的算法必然在伦理道德产生偏离。其次,还需要对算法的研究者加强新闻专业知识和新闻伦理道德的培训,减少算法偏见。
算法的“透明度”也是值得关注的问题。算法设计的技术门槛较高,其专业性和复杂性让普通的民众无法对它的运行机制进行透明化的监督,即使是算法的设计者对其产生的结果也不能实现完全的把控。因此,民众开始呼吁相关的管理机构介入算法平台的研究之中,对算法的研究流程建立一套完整的监督体系。在一些涉及到受众关键利益信息、隐私信息等环节,在不涉及商业机密的情况下,应该将算法目的和流程公之于众,接收社会大众的舆论监督。
制定完善相关法律法规 严惩违规创作行为。为了解决算法推荐所引起的弊端,我们应从两个方面着手。一方面,对算法推荐技术进行内部的制约规定;另一方面,从外部进行强有力的法律制约。
从算法推荐技术的规定制约看,算法推荐技术的开发者应该制定相应的规范和准则,以确保算法在推荐内容时能够遵循公平、公正、透明、负责任的原则。这些规范和准则应该明确算法推荐的具体流程、标准和方法,以及在出现不公正、不透明、不负责任的推荐结果时应该采取的措施。同时,算法推荐技术的开发者还应该加强对算法的审查和监督,确保算法在运行过程中不会出现偏见、歧视等问题。
从外部的法律制约方面来看,政府应该加强对算法推荐的监管力度,制定更加严格的法律法规,以规范算法推荐技术的使用。法律法规应该明确对算法推荐的违规行为进行定义和分类,并规定相应的处罚措施。此外,政府还应该加强对新闻事业的监管力度,建立新闻失范黑名单,对低质量、媚俗内容的传播主体和传播平台进行惩治和处罚。
为了确保新闻事业的长期健康发展,需要在不断完善算法推荐技术的同时,加强对低质量、媚俗内容的惩治和处罚力度。新闻相关部门可以建立新闻失范黑名单,通过自主监察、舆情监测、用户举报等多种途径形成合力,及时发现并清理低俗、低质量的传播内容。对于违规的新闻创作者或传播平台,应该采取相应的警告、处罚措施,必要时甚至可以清退相关账号。只有提高新闻创作者的准入门槛,才能确保更高质量、更负责任的新闻信息在传播渠道中得以传递。
此外,我们还可以通过教育和宣传来提高公众对高质量新闻的认知和意识。政府和社会各界应该加强对公众的引导和教育,让公众认识到高质量新闻的重要性,并培养公众对低质量新闻的鉴别能力。同时,新闻媒体也应该加强自身的自律机制建设,提高新闻从业人员的专业素养和道德水平,以更好地服务于公众。
总之,解决算法推荐所引起的弊端需要从多个方面入手。我们需要从内部和外部两个方面来制约规定算法推荐技术;加强对低质量、媚俗内容的惩治和处罚力度;提高新闻创作者的准入门槛;以及通过教育和宣传来提高公众对高质量新闻的认知和意识。只有这样,我们才能确保新闻事业的长期健康发展,为公众提供更高质量、更负责任的新闻信息。
结语
算法推荐技术为信息生产和传播环境带来了重大变革,为人们的信息寻求提供了极大的便利。然而,由于算法本身的局限性、设计者存在主观偏见、缺乏审查机制等原因,也对信息传播环境造成了极大的影响,甚至逐步威胁着新闻伦理道德。针对当前信息传播环境中存在的问题,国家已经出台了相关政策来治理算法带来的种种问题。下一步,除了进一步完善相关的法律法规,加强对算法研究平台的审查外,还应该采取措施提升民众的媒介素养,以淡化算法对新闻伦理造成的冲击。在实践中,可以加强对算法技术的研究和探索,以进一步了解其优缺点。同时,应该建立健全的审查机制,对算法进行严格的监管和审查,以避免潜在的风险和负面影响。此外,政府和相关机构可以加强对算法平台的监管和规范,以确保算法技术的合理使用和发展。同时,应该鼓励媒体和传播行业加强自律和规范,遵循新闻伦理和道德准则,以确保信息的公正、客观和真实传播。
综上所述,算法推荐技术对信息传播环境带来了深刻的影响,需要采取综合措施来治理其中存在的问题。除了法律和监管措施外,提升民众的媒介素养也是重要的途径之一。
文章来源: 《声屏世界》 https://www.zzqklm.com/w/xf/24481.html
- 2025年中科院分区表已公布!Scientific Reports降至三区
- 官方认定!CSSCI南大核心首批191家“青年学者友好期刊名单”
- 2023JCR影响因子正式公布!
- 国内核心期刊分级情况概览及说明!本篇适用人群:需要发南核、北核、CSCD、科核、AMI、SCD、RCCSE期刊的学者
- 我用了一个很复杂的图,帮你们解释下“23版最新北大核心目录有效期问题”。
- 重磅!CSSCI来源期刊(2023-2024版)最新期刊目录看点分析!全网首发!
- CSSCI官方早就公布了最新南核目录,有心的人已经拿到并且投入使用!附南核目录新增期刊!
- 北大核心期刊目录换届,我们应该熟知的10个知识点。
- 注意,最新期刊论文格式标准已发布,论文写作规则发生重大变化!文字版GB/T 7713.2—2022 学术论文编写规则
- 盘点那些评职称超管用的资源,1,3和5已经“绝种”了