微信截图_20250120095400.jpg
《传媒观察》|生成式AI传播生态治理要有“过程性思维”
2024-01-09 10:39:00  来源:《传媒观察》  作者:喻国明 滕文强 叶靖怡  
1
听新闻

编者按:面对生成式AI所带来的复杂系统,无限扩容的内容主体和自发涌现的内容网络都使得传统的“应对型”治理模式逐渐失效。喻国明教授和博士研究生滕文强、硕士研究生叶靖怡在《传媒观察》2023年第12期刊文,认为技术的发展是一个循序渐进的过程,而与之匹配的治理路径也要满足过程性思维的特点。文章站在负责任创新视角下,厘清生成式AI对媒介生态系统的演化,提出以规范性锚点、情境治理的思维促使治理模式从适应性治理策略向前瞻性治理策略演变,构建负责任的生成式AI传播创新协同机制。

 

以ChatGPT为代表的生成式AI(Generative Artificial Intelligence,GAI)方兴未艾,关于诸如人工智能伦理、机器与人类意识、人类存在危机等问题亦热议如沸。人工智能技术步入了从“决策式AI”到“生成式AI”的技术迭代期。生成式AI将在产业应用、领域变革、社会发展等方面产生何种影响?

学界对此众说纷纭,持乐观态度者期待生成式AI给人类社会带来极大丰富,持悲观态度者则警告生成式AI可能带来的严重危害。但我们必须要认识到,生成式AI作为一项划时代的智能互联技术,其突破点在于以无界的方式全面融入人类实践领域(通用性),具有去边界、场景性、交互性和参与性等显著特征。那么,如何营造一个良好的社会环境和系统,增强社会性的连接,帮助个体更好地适应生成式AI的运用,以何种治理理念协调技术发展与社会需求、社会伦理之间的一致性,是未来需要深入探讨的课题。

传播视阈下作为技术伦理的负责任创新的内涵

负责任创新(Responsible Innovation),又称负责任的研究和创新(Responsible Research and Innovation,RRI),肇始于学界对责任伦理的讨论。2003年德国学者Hellstrom首次公开提出这一概念后,受到国内外学界和政府的广泛关注。新兴技术的负责任创新是指,在技术研发的初期技术主体、创新活动和反馈机制,在遵守道德的前提下共同影响的互动过程。技术引领者在预见创新的结果和影响下,坚持道德价值导向,引导技术的创新和发展。

负责任创新的基本要素包括社会利益、道德伦理可接受程度和风险管理等,强调技术与社会之间的合作,是一种带有伦理意义的创新理念。在负责任创新的视角下,技术发展与伦理构建并非冲突的“二元对立”或“此消彼长”。技术的深度嵌入可能会导致新闻真实面临挑战、被遗忘难题加剧、信息淹没等问题,而对应用风险的感知已经在向社会各方传导。

虽然可以通过禁用和停止开发来暂时规避风险,但历史和实践表明,人类对新文明的好奇与渴望会不断激发新技术的产生,禁用和停止开发不能一劳永逸,伦理原则也不该为技术发展设置故步自封的限制。负责任创新要求伦理介入技术最初的研发环节,成为考评的重要组成部分,将伦理的作用由事后评价转为上游参与,进而实现整个创新流程的负责任,保证结果符合用户的需求、道德的标准和社会的期待。如陈昌凤等学者所认为的,AIGC的价值观应该由隐私性、公平性和透明性三个维度构成,保护用户隐私,规避算法偏见和披露算法机制以便外部观察者纠偏等伦理原则介入大模型训练之始,并贯穿生成式AI生产、分发等各环节。

作为技术哲学的设计转向,价值设计是负责任创新的必要条件。其中,伦理思考和伦理原则应作为设计的需求,而将自我设计作为责任主体则是设计目的。以此为指导,为各种不道德的价值而进行的设计就被首先排除在外,技术发展的伦理诉求亦得到了有效回应。“科技向善”是生成式AI理性赋能的基石。有学者认为现有的负责任创新理念是熊彼特范式下基于竞争逻辑的创新。但是从人工智能伦理评估员被互联网公司解聘,再到人工智能创新主体对外界问责置若罔闻,种种迹象表明,面临效率的诱惑,生成式AI要实现负责任创新仍有不小阻力。只有在后熊彼特范式下依托基于共生逻辑的创新来保卫负责任创新,才能建构真正具备约束力的伦理准则,削弱“不负责任”的创新赖以扩散的社会基础,使通过负责任停滞促成制度跟进变为可能。

构建负责任的生成式AI传播创新协同机制

责任规则是“责任”的道德维度,也是负责任创新的一个重要的价值向度。在新技术不断更迭的背景下,我们既要看到技术的发展为人类社会所带来的进步,也要注意新技术所带来的适配性问题。面对生成式AI所带来的内容复杂巨系统,无限扩容的内容主体和自发涌现的内容网络都使得传统自上而下的机械控制论丧失治理有效性,传统的“应对型”治理模式已经无法对科技伦理风险进行源头治理和灵活管控。治理层级需要依据社会需求对技术创新活动进行规范性引导,以实现科技创新与经济、社会和环境的良性互动。因而如何构建传播创新价值协同机制、创新整合并灵活运用治理工具以提升技术效能,是未来更好地运用和理解生成式AI的一个重要命题。

(一)规范性锚点:生成式AI责任实现的价值依据

雷内·冯·尚伯格提出“规范性锚点”(normative anchor points)来阐述用以确定科技活动责任规则的价值依据。“规范性锚点”就像是责任规则系统中的公理,从几条简单的公理中便可以推出其他一系列定理,即具体的行为规范或价值原则。面对生成式人工智能的出现,如何形成一个具有普遍性的“规范性锚点”,形成社会最为广泛认同的价值标准,成为导向性的规范进而起到约束作用才是重中之重。

以大数据侵权为例,相较于传统的抄袭来说,生成式AI的数据侵权可能很难被确认,生成式AI将底层要素拆解后又重新组合,可能很难从成分上辨别思想的本质来源。新技术的发展与落地总要经历一个相对混乱的泡沫期,这是探索新事物必须要付出的成本。治理范式中要有容错空间,创新需要一定的空间。技术所产生的问题,其实也是可以通过技术本身找到解决方案的,构建“伦理可接受”“社会可持续”“科技可发展”三个规范性锚点形成一种平衡态。

伦理可接受是指技术在研发和落地的过程中,可能带来的伦理风险要总体保持在一个可接受的“安全性”水平之上,技术创造既要符合社会的道德伦理规范,也要通过技术创新帮助人们承担更多的责任,解决先前技术遗留的伦理问题。社会可持续是指技术要把握“以人为本”的核心思想。人是媒介发展的“元尺度”。技术的进步使得“人的解放”程度在加深,用户的数字价值得以体现。生成式AI将各种独立的生活场景连接成为一体化的文明生态,在虚拟与现实的转换中,改变社会交互和运行方式,形成保证人与社会的可持续发展的责任规则。科技可发展是指技术本身的发展。责任规则不是给新技术的发展按下暂停键,而是在小规模试错中优化迭代,让其发展更透明、更公开、更可控,以“预防原则”维持技术本身的发展。

诚然,这三个规范性锚点表现为不同的功能,是互斥又互补的关系。抓住三个规范性锚点,多元主体共治的责任边界将更加明确,传播信息资源的深度连接将更加优化,进而将治理理念逐渐过渡到抓大放小的路径上,通过宏观的结构与规则管理、过程管理来实现治理目的,找到生成式AI责任实现的价值依据,以多元协同的新理念为社会母系统创造更多的正向价值。

(二)情境治理:从适应性治理策略向前瞻性治理策略演变

媒介技术的发展是“科学-技术-媒介系统”不断成为社会生产力的过程,也是“知识-利益-价值”的实现过程,同时还可能是技术伦理风险不断展现的过程。静态判别思维是对当下现有情况的判别,而伦理判别模式的未来性,虽需要基于过去认知,但这种过去的认知对现在情境是否有一定意义和价值尚且不能框定,因而我们需要一种方向性、具有力量型的治理方式,从限度和用度层面来治理生成式人工智能,而不是直接将利弊二元区分,这便是过程性判别思维。

2023年3月29日,一封《暂停大型人工智能实验的公开信》(Pause Giant AI Experiments:An Open Letter)受到关注,千位科技顶级专家签名支持,随后GPT-5研发被叫停。这便是新技术发展过程中的科林格里奇困境(Collingridge dilemma)。然而这种因噎废食的治理方式不利于新技术的发展。同样通过政策执行、监督管理等手段实现技术规制的适应性治理策略也不能将发展与治理推动到平衡态。在负责任创新视阈下,技术治理可以偏向风险评估、技术规制等前瞻性治理策略,不仅注重多方利益相关者的期望与诉求,还强调对治理目标的预期与分析,以一种探索性、反思性、动态调整的角度关注社会情境变化。

治理生成式AI首先可以在具体情境中探索治理策略。在协商层(inclusion)中,不再局限于垂直治理模式,以协同网络结构构建“技术治理共同体”,这样可以更为充分地掌握新兴技术治理社会情境,以多元视角分析不同治理阶段的实施行动与信息反馈。在预测层(anticipation)中,将关注生成式AI的下游“风险”转移到上游“创新”,在具体的应用情境实验中对可能出现的和潜在的影响进行预期。在反馈层(responsiveness)中,则是以开放、包容、互动的态度汲取技术发展创新所需的社会因素,技术治理策略与治理行动协同一致。在反思层,从规范性锚点出发,通过小规模试错,在用户反馈中找到它的短板与不足,对已经出现或将要出现的价值冲突进行反思,提出调整和解决方案,为技术治理提供指导性思路。

技术发展推动社会技术进步,同时也带来未知风险,根据风险的社会放大理论,无论科技伦理风险的大小,倘若感知风险偏高,则会产生科技伦理风险社会放大的效果,这是一个风险传递涟漪效果的形成过程。站在负责任创新的视角下,预判性、前瞻性的情境技术治理策略能协调技术发展与社会需求之间的一致性,减少技术发展带来的不确定性与风险性,实现新兴技术柔性治理,标本兼治地为其长远发展施以社会性的建构。

过程性思维兼顾技术发展与技术伦理

技术的发展从来不是一蹴而就的过程,而是一个循环往复,不断迭代发展、不断试错的过程。技术“S”曲线是技术战略理论的中心环节,当某一种技术发展成熟到一定程度之后,必然会有变革性的新技术涌现,实现新旧技术之间的更迭换代,这是社会向前发展的必然。当前生成式AI的出现,它的身上有互联网、元宇宙、社交媒体、算法等多个技术的影子,这也恰恰满足了技术发展的“S”曲线。当一种技术发展到一定水平,并且足以满足另一个价值网络所要求的性能水平和特性时,新技术就能以极快的速度侵入这个价值网络。透过S曲线我们似乎可以发现,技术更迭的本质是准确把握当前的技术S形曲线何时将通过拐点,同时发展任何自下游兴起、并将最终取代现有方法的新技术,这本质上也是一个循序渐进的过程,而与之匹配治理路径也要满足过程性思维的特点。

在生成式AI技术引入期,技术的发展速度缓慢,技术性能往往有限,存在灰色地带,此时的不确定性最高,此时生成式AI着力改变的是人们生产生活的方式,在这个阶段,在负责任创新视角下,我们需要“抓大放小”,给“灰色地带”预留些许创新空间。

在生成式AI技术成长期,技术的发展迅速,技术难关解决,技术发生显著改进、性能大幅提高,技术得以在不断完善的基础上实现客群的不断稳定,经历了前期技术的引入时期的不确定和迭代过程,技术不断成熟,风险逐渐消失。在这个阶段我们需要意识到媒介复杂系统的多元治理主体,明确治理结构的聚集、多样性、非线性特征,推动媒介技术与社会组织形态趋向规模适度化、结构最优化和关系高效化的动态发展进程。

在生成式AI技术成熟期,技术将逐渐接近渐近线上的自然或物理极限,随之而来的是未来新技术不断涌现出来,这个阶段技术需要完成与社会契合接入问题,整体发展趋于平稳,此时社会新的文化系统伴随着技术的不断成熟被重塑,而未来又即将开启新一轮的循环技术发展。

OpenAI在公司主页上将其使命从“形塑未来的技术”调整为“创建安全的、使全人类受益的人工智能”(Creating safe artificial intelligence that benefits all of humanity),兼顾了伦理意义上的“安全”与价值定位上的“使全人类受益”。两点之间画一条直线看似是捷径,但社会操作中如江河行地的九曲十八弯才是其最有效的实现路径。不仅是生成式AI,未来新技术会不断涌现,但在负责任创新的视角下,过程性思维是有效的治理路径。在一定的容错空间中,在一定的灰色地带中,让更多的主体参与到信息汇冲之中,进而找到技术可持续发展、社会可持续发展、人类可持续发展的最大公约数。

(载《传媒观察》2023年第12期,原文约10000字,标题为《过程性思维:构建技术发展与技术伦理之间的良性互动——负责任创新视角下生成式AI传播生态治理的思考》。此为节选,注释从略,学术引用请参考原文。“传媒观察杂志”公号全文链接:https://mp.weixin.qq.com/s/PIlNEQq1jG_Jmj-jJTOclA。)

【作者简介】喻国明,教授,博士生导师,北京师范大学新闻传播学院学术委员会主任,北京师范大学传播创新与未来媒体实验平台主任,中国新闻史学会传媒经济与管理专业委员会理事长

滕文强,北京师范大学新闻传播学院博士研究生

叶靖怡,北京师范大学新闻传播学院硕士研究生

标签:
责编:王迅 崔欣