人工智能介入新闻生产的伦理风险及其规避路径

何芳明 杨思颖     2025-01-13 17:25:14

文/何芳明  杨思颖

当前,随着媒体融合发展的深入推进,人工智能(Artificial Intelligence,AI)赋能新闻传媒发展,让麦克卢汉(Marshall McLuhan)60年前“媒介即人的延伸”的预见,呈现出更丰富而生动的现实图景。人工智能介入新闻生产正在为新闻业发展注入新动能,也给传统的新闻伦理带来冲击与挑战。如何应对人工智能给新闻生产带来的冲击与挑战,是新闻业当下亟须面对的问题。

一、人工智能在新闻生产中的应用不断深入

“1956年的达特茅斯会议上,约翰·麦卡锡(John McCarthy)正式提出‘人工智能’(Artificial Intelligence)的名字”,[1]人工智能走过了70年蜿蜒向前的探索之路。第一代人工智能,主要依赖预设的规则和人类知识进行推理、决策,如阿尔法狗(Alpha Go)的国际象棋人机大战,该行为基于既定规则,可以做出准确判断,但对不确定情境的处理能力有限,因此其对新闻生产的介入有限。第二代人工智能运用人工神经网络和人类脑神经工作原理,摸拟人类的学习和决策过程,能够对信息进行分类、预测和生成,实现了图像识别和自然语言处理,因此能深度分析新闻素材,自动撰写与编辑新闻稿件,从而真切地介入新闻生产。当前发展的第三代人工智能,在知识和数据的双驱动之下,朝着具有独立思考和决策能力的方向发展,将深度介入新闻生产各环节,融合创新新闻呈现样态,推动新闻业的全新变革。

自美国Open AI公司2022年底发布一款人工智能聊天机器人——ChatGPT以后,人工智能生成内容(AIGC)引起了全球范围内的广泛关注,除了ChatGPT,Google、Facebook(Meta)等国外科技公司都研发了各自的人工智能语言大模型,国内的科大讯飞、百度、腾讯等科技公司也相继推出了人工智能语言大模型,如星火、文心一言等。2024年初,Sora等视频生成模型的推出,让人工智能生成内容在新闻生产的应用有了具象化的场景。

国内外媒体机构已经将人工智能积极地应用于新闻内容生产。在国内,人民日报社2023年10月发布“人民日报创作大脑AI+”,利用人工智能技术搭建起了集智能化、场景化、自动化于一体的全新工作模式;新华社2023年7月发布了大型语言模型MediaGPT,并在成都大运会报道中,利用此模型生成具有表现力的新闻产品《AIGC:珍稀“宝贝”为成都大运会加油助威》;中央广播电视总台也于2023年7月发布了“央视听媒体大模型”(CMG Media GPT),专注于视听媒体的内容生产。在国外,美联社早在2015年就开始使用AI生成有关上市公司的财经分析新闻,2023年7月与Open AI签署合作协议,接入其人工智能大模型进行新闻生产;《纽约时报》开发了数据分析机器人“Blossomblot”,分析社交平台上的信息来辅助生产“爆款”内容,2023年情人节前夕,使用ChatGPT创建情人节消息生成器生成互动新闻《A Valentine,From AI.TO You》;路透社、英国广播公司等媒体机构也已使用生成式AI进行内容生产。

人工智能生成内容的强大功能和既有的新闻生产实践已经表明,其作用和影响不可小觑。对新闻生产而言,人工智能将使新闻素材的获取、采集、筛选更加高效和精准,新闻写作、编校审核、内容呈现形式、版面页面布局更加快捷和优化,在整体上提升新闻生产的效能。但是,机遇与挑战并存,我们迎接人工智能带来的技术福利时,也不可忽视人工智能带来伦理风险。

二、人工智能介入新闻生产的伦理风险

新闻伦理是指在新闻生产传播实践中应遵循的道德规范和行为准则,它划定了新闻从业者的职业操守和价值底线。尽管对于新闻伦理的理解是一个动态的认识过程,但其核心准则是相对恒定的,真实准确、客观中立、尊重人格尊严等专业规范,是长期以来的新闻实践形成的核心准则。人工智能介入新闻生产,将对新闻生产流程各环节造成影响,冲击既有的从业规范,给新闻生产带来伦理风险。

(一)新闻失实的隐忧。真实性是最基本的新闻伦理准则。新闻真实是基于客观事实的真实准确,而人工智能生成内容是基于数据和算法生产新闻,真实准确的数据是事实,但数据与事实并能简单地划等号,因为数据可能包含错误、虚假的信息。基于数据及其算法的人工智能生成内容,可能暗藏着相应的新闻失实的隐忧。

数据偏差可能造成新闻失实。ChatGPT是基于Common Crawl的大型文本数据集生成的,对网络信息进行直接爬虫收集组合而成的数据集,其数据并未经过严格的审查与筛选,本身可能包含错误甚至虚假的信息。基于错误、虚假数据生成的文本内容,形成错误、虚假的事实,造成新闻失实。而且,数据集本身就是一个复杂的集合体,含有大量的虚构作品、用户生成内容(UGC)等文本,事实与观点、事实与想象共存一体,人工智能因其自在的结构性缺陷无法区分。将观点与想象的数据误认为事实的数据,就会生成与事实不符的文本内容,造成新闻失实。

算法局限性可能导致新闻失实。算法难以完全理解复杂的语义和文化背景,当新闻事件中包含人文地理和文化隐喻的内容时,算法可能误解这样的内容,做出错误的判断和表述,从而导致新闻失实。OpenAI对用户作出提示:ChatGPT“可能偶尔会生成不正确的信息”和“产生有害指令”,其实就是对算法局限性可能造成失实的警示。

(二)客观中立的偏颇。客观中立的新闻伦理原则,要求在新闻生产传播实践中做到不偏不倚。人工智能生成内容的核心逻辑是向数据学习,数据偏见和算法偏见之上,人工智能生产内容是否能够坚守新闻客观中立性原则,已不受新闻从业者掌控,难免失之偏颇。

数据偏见是人工智能自在的缺陷。“从数据出发寻求解决方案的AIGC,在接受大量网络文本作为‘全人类’的‘代表’时,冒有系统性偏向的风险。”[2]当数据集偏向某个特定的人群而无法准确代表人口多样性时,就可能产生人口偏见。用于ChatGPT训练的数据集含有推特平台上大量用户生成内容(UGC),而推特用户中白人占比达60%,男性占比66%,大模型在学习这样的数据之后生成的新闻内容,自然会偏向于白人男性,对其他族裔和女性产生偏见。

算法偏见就是人工智能的规则偏见。算法是研发者赋予的数据处理规则,规则偏见是算法设计不完善不合理而产生的系统性偏见。人工智能看似是没有主观意见的机器,但是算法必然受到研发者本身价值倾向的影响。ChatGPT宣称是一款“没有主观意见的人工智能”,但其生成的文本出现黑人是罪犯、穆斯林是恐怖分子等内容并非偶然,可能就是算法设计而导致的偏见。而且,算法就像一个黑箱,数据的使用方式、决策机制、计算参数的设计与调整等都是不透明的。算法黒箱隐藏着研发者的主观偏见,决定了生成的新闻内容带有相似属性。

(三)人文关怀的缺失。‌人文关怀是新闻伦理的重要考量,强调在新闻报道中关注人的价值和尊严,避免对人的伤害和岐视。人工智能的本质上是基于数据和程序运行的工具,没有像人类一样的情感体验和意识。因此,人文关怀的缺失,是人工智能介入新闻生产显在的伦理风险。

人工智能生成内容漠视情感。“机器学习算法在生成新闻内容时会根据数据集自动进行选择性分析和分类。这意味着其会忽略主观的判断和深入的调查。”[3]正是由于没有人类情感的判断力,人工智能自动生成的新闻无法把握和传达新闻事件中的情感因素。比如,对于灾难新闻的写作,人工智能在模板化的语料与框架之下快速地写出新闻。这样的新闻当然是生硬和冷漠的,不能对灾难事件提供情感支持。

人工智能生成内容可能造成人格侵害。人工智能在新闻生产中需要大量的数据支持,这其中就包括私人生活、领域和行为的隐私数据,如果这些数据被不当使用于训练人工智能,可能侵害当事人的隐私权;如果生成的内容涉及到对个人的不当描述、诽谤等,就会侵害当事人的名誉权。而且,人工智能大模型往往会自动保存与用户的通话记录,ChatGPT的对话记录就被保存在OpenAI公司的存储系统中,这同样是对用户隐私安全的潜在威胁。

(四)对社会公平的威胁。社会公平是新闻伦理追求的最终目标,但是人工智能作为新技术推动新闻生产变革,可能导致行业资源集中和智能鸿沟的扩大,从而对社会公平构成新的威胁。这与新闻追求社会公平正义的伦理准则背道而驰的,因此可以视为人工智能介入新闻生产带来的伦理风险。

人工智能导致行业资源集中威胁社会公平。一方面,人工智能的研发技术资源主要被少数科技巨头掌握,作为内容生产者的新闻机构需要购买技术服务,这样可能形成不利于买方的不公平交易。另一方面,大型媒体机构更有资源和能力采用先进的人工智能技术,可能会加剧媒体行业的资源集中,使得小型媒体难以获得同等的发展机会,影响行业的公平竞争。

人工智能产生智能鸿沟威胁社会公平。智能传播时代,数字鸿沟进一步发展为智能鸿沟。“智能鸿沟特指是个体或群体在智能技术的接触、使用及应用结果等方面形成的差异。”[4]受到文化程度、年龄、地域、经济水平等因素的影响,不同群体对人工智能的接触频率、认知水平和应用能力方面都存在差距,人工智能介入新闻生产会加剧扩大数字鸿沟。比如,使用ChatGPT获取新闻时,能否提出有效的提示词影响着所获取新闻的广度与深度。而且,智能鸿沟的扩大,本质上是知识不平等的加剧,必将影响处于劣势的群体参与社会讨论和公共决策的机会,导致社会参与的不公平。

三、规避人工智能新闻生产伦理风险的可能路径

“新闻行业构建一套共同认可的伦理价值观,其目的不仅在于保持行业内部的良性竞争和可持续发展,更关乎对整个社会伦理的引导。”[5]当下的人工智能生成内容,是基于数据驱动而实现的,由此带来的新闻伦理风险主要是以数据为中心衍生的风险。因此,规避人工智能给新闻生产带来的伦理风险,需要并从数据出发,去探寻可能路径。

(一)认知焕新:利用人工智能学习人工智能。“任何一次技术革命的背后,实际上是一种主体性质的观念革命”[6]。传媒行业迎接人工智能技术革命,同样需要来一场观念革命:强化数据观念和智能技术观念,重视数据作为生产要素的作用,重视人工智能对产业变革的驱动力量,积极运用人工智能技术进行新闻生产与传播;同时要强化技术伦理意识,关注人工智能可能带来的社会伦理问题,关注人工智能介入新闻生产传播带来的伦理风险,积极寻求工具理性与价值理性的平衡。

对新闻从业者来说,要理性认识人工智能技术的发展及其在新闻生产中的应用。为人工智能的便捷高效而欢呼的同时,新闻工作者需要理性地面对人工智能带来的伦理困境,关注人工智能生产对新闻真实性、客观性、人格尊重和社会公平的挑战,主动规避相应的道德风险。同时,要创新思维,主动学习,跨界学习,利用人工智能学习人工智能,不断提升自己的数字传媒素养和人工智能技术运用能力,从而增强自己防范人工智能新闻生产伦理风险的本领。

(二)模式转变:构建人机协同新闻生产模式。人工智能介入新闻生产,新闻生产模式需要进行与之适配的改变。构建人机协同的新闻生产模式,是一项持久的任务,也是一条值得探索的有效路径。“智媒趋势下,尽管人在内容生产中将始终保持主导地位,传统的一些内容生产模式也会延续下去,但未来人机协同也将成为一种常态。”[7]

新闻生产各环节加入了人工智能作为新闻生产者的角色,意味着记者与人工智能共同作为新闻生产合作者。合作需要分工,也需要协同。记者的角色不再是单纯的内容生产者,而要转向为新闻报道的指挥者。记者发挥其主观能动性,策划新闻报道,挖掘内容深度;人工智能则发挥其数据收集和快速产出的能力,从而实现人机角色的优势互补。人机协同的新闻生产模式,在深度报道中的优势非常明显:记者可以发挥自身经验和专业知识,深入现场调查采访,挖掘新闻价值;而人工智能生成内容可以快速梳理相关政策文件等背景知识。这样的协同合作,新闻内容质量更优、效率更高。当然,在人机协同的新闻生产模式中需要强化人工核查,而人的主体性意识可以做出理性判断和价值选择,对人工智能生成内容进行严格的事实核查和伦理审查,以规避新闻伦理问题。

(三)法制规约:加强行业自律建立AIGC伦理规范。随着人工智的发展,规约人工智能应用的法制建设已在全球范围内引起重视。由欧盟牵头推进的《人工智能公约》于今年9月5日签署,已有57个国家加入,要求签署国对AI产生的有害结果负责。在国内,国家互联网信息办公室2023年4月起草了《生成式人工智能服务管理办法(征求意见稿)》,明确了生成式人工智能应用的相关规则。这都是对人工智能生成内容的法制规约。

但是,对人工智能应用的法律监管终究还处于起步阶段,而人工智能介入新闻生产已经面临现实的伦理风险。因此更需要新闻行业、新闻从业者坚守新闻伦理准则,加强行业自律。行业自律需要从具体的机构媒体做起,大型机构媒体应率先垂范,制定具有明确指导性和具体要求的AIGC伦理规范,为人工智能新闻生产立规矩;建立严格的伦理审查机制,明确记者、编辑、技术人员在人工智能新闻生产中的职责和权限,加强对生产流程的把控,确保人工智能技术的应用符合伦理价值要求。新闻行业组织应发挥引领作用,牵头制定人工智能新闻生产的行业规范或自律公约,引导新闻机构和新闻从业者自觉遵守伦理规范。

(四)技术规约:发展数据管理与算法监测技术。数据是人工智能冲击新闻伦理的主要风险来源,正是数据本身的偏差与数据管理不当给新闻伦理带来威胁。因此,要通过发展数据管理技术来提升数据管理能力,运用技术手段科学管理数据的收集、筛选、存储和使用。比如,使用加密技术,防止数据滥用,以保障新闻内容涉及的个人隐私和信息安全;利用区块链技术,为新闻内容提供不可篡改的溯源信息,以确保新闻信息源的真实可靠;利用水印技术,确认数据及其生成内容的权属,以明晰侵权责任。

算法偏见是人工智能新闻生产自在的伦理风险。算法是研发者赋予的机制,可以通过人工审核其是否完善与合理、是否存在偏见或岐视,但是作为用户的新闻生产者通常在算法黑箱之外,无以知晓无处审核。因此,发展算法审核与监测技术,利用技术手段发现与纠正算法偏见,同样是行之有效的方法。比如,利用数据挖掘工具跟踪算法的运行过程,及时发现并纠正可能导致伦理风险的算法偏见;运用决策树、规则集、线性模型等解释性机器学习,增强算法的解释性,便于审核与纠错;采用伦理评估模型,根据评估结果改进算法,减少伦理风险。归根结底,要推动人工智能技术的研发,提高其透明度和可解释性,使新闻从业者和受众能够更好地理解和监督人工智能的决策过程,减少因算法黑箱而导致的风险。

(作者何芳明系湖南大学新闻与传播学院教授,《长沙晚报》高级编辑,博士;杨思颖系湖南大学新闻与传播学院2024级硕士研究生)

摘自《华声·传播观察》

责编:罗嘉凌

一审:黄帝子

二审:苏露锋

三审:黄柏禹

版权作品,未经授权严禁转载。湖湘情怀,党媒立场,登录华声在线官网www.voc.com.cn或“新湖南”客户端,领先一步获取权威资讯。转载须注明来源、原标题、著作者名,不得变更核心内容。

我要问