IPP评论是国家高端智库华南理工大学公共政策研究院(IPP)官方微信平台。
文章指出,过去五年,人工智能政策在国际层面是在许多现有和新建立的相互关联的对话中制定的。然而,这些对话通常由少数最发达的西方国家主导,而世界上主要全球南方国家则没有被包括在内。在这种背景下,文章提出了三种以更具包容性和社会效益的方式重新构想人工智能的机会。
2024年9月22日,英加·乌尔尼坎受邀参加以“A与未来世界”为主题的华南理工大学公共政策研究院第十一届国际会议,并在会上作“重新构想负责任人工智能的全球竞争与合作”的演讲。
全球人工智能政策的制定与实施,目前正处在一个充满“炒作”的环境中,两极分化严重,充斥着极端乐观与悲观的预期。尽管其中很多预期日后都会被证明言过其实,但它们却正在深刻影响着当下的决策、行动与投资方向。
过去五年间,人工智能治理已从聚焦自愿性的伦理准则,逐步转向为建立和实施具有约束力的监管规则。在国际层面,人工智能政策正在诸多平台中推进,但这一些平台通常由少数发达国家(以西方国家为主)主导,世界大部分地区(主要来自全球南方国家)仍被排除在外。
在此背景下,本文提出三个重塑AI发展路径的机遇,以期实现更具包容性、更加有助于社会福祉的AI发展模式:
首先,尽管当前AI领域存在巨大的权力不对称,但政府仍可以扮演多种角色重塑人工智能政策中的权力分配,构建政府、行业与社会之间更为平等的关系。
其次,开展包容开放的民主讨论,明确人工智能开发与应用的目标,促使其更好地契合社会价值观、实际的需求与公众关切。
第三,面对一些棘手问题(如气候平均状态随时间的变化与不平等问题),需要采取更具整体性的社会-技术解决方案,而不是仅仅依赖人工智能作为技术补救手段。
联合国人工智能高级别咨询机构于2024年9月发布了《以人为本的人工智能治理》(Governing AI for Humanity)。这篇报告在开篇就传递了一个充满希望的讯息:人工智能正在改变我们的世界,并在提升人类福祉上有巨大潜力,从开拓科研新领域、优化能源网络,到改善公共卫生与农业体系,再到推动可持续发展目标(SDGs)取得更广泛进展(联合国,2024年),AI都能发挥作用。
联合国发布《以人为本的人工智能治理》报告,强调人工智能伦理原则,倡导全球合作。
但报告随机话锋一转,着重探讨了构建包容性治理框架的必要性,以把握发展机遇、促进分配收益公平,并应对偏见、监控、虚假信息及能源消耗等风险。报告概述了近年来人工智能政策讨论中的若干关键议题,包括如何构建既能发挥人工智能优势、又能管控其负面影响的治理方式。
当前,人工智能政策的制定与实施始终伴随着舆论热潮,社会各界对AI的期待呈现两极分化,既寄望其带来非常大的社会经济利益,又担忧其引发危及人类生存的风险。
尽管其中许多预期日后可能被证实并不准确,却已然影响着当下的决策制定、政策走向与投资布局。这可以被称为是炒作与期望的“表演性功能”(performative function),即集体性的未来探索活动对当下实践也会产生一定的影响(Ulnicane等,2021;Van Lente等,2013)。
在此起彼伏的舆论热潮中,近年来快速演进的人工智能治理仍旧取得显著进展。2018年前后,政策焦点主要集中于制定人工智能伦理准则和推出国家人工智能战略(Jobin等,2019;Radu,2021;Schiff等,2021;Taeihagh,2021;Ulnicane等,2021)。
随着各类伦理规则在数量上的激增,随之也出现了反弹声浪和对“伦理清洗”(Ethics washing)现象的担忧——即自愿性伦理准则可能被强势科技公司利用,成为延缓或规避强制性监管落地的工具。
美国联邦贸易委员会(FTC)正在推进拜登政府执政末期对微软的大规模反垄断调查。图源:新华社
近年来(2021-2023年)也出现了“人工智能监管竞赛”的态势。欧盟、中国和美国等全球主要经济体相继出台人工智能监督管理法规(Neuwirth,2024)。其他几个国家或选择效仿主要大国的监管路径,或自己探索差异化治理方案。美国总统特朗普主张废除既有人工智能监管政策(Edwards,2024),这使得人工智能监管倒退的风险也开始显现。
此外,需要我们来关注的是,人工智能的技术突破不断催生新的政策议题。2022年底ChatGPT的发布及其后涌现的一系列生成式AI工具,都快速推动各国出台专项治理措施。这些政策举措高度聚焦安全与风险管理问题(Ulnicane,2024)。然而,AI在全世界的影响力也引发了更多的治理问题,即如何协调各国和各地区的多样化政策。现有的国际人工智能治理体系呈现多中心特征——各决策主体层级交错、互相独立,同时维系着竞合交织的复杂关系(Ostrom,2010;Ulnicane,2024)。
相关议题在很多国际论坛都有所讨论(Schmitt,2022;Roberts等,2024),既包括经合组织(OECD)、七国集团(G7)、二十国集团(G20)、欧洲委员会、联合国教科文组织(UNESCO)、国际电信联盟(ITU)等机构。也涵盖人工智能全球合作组织(GPAI)和人工智能安全峰会等专项论坛。
5月6日,在位于纽约的联合国总部,中国常驻联合国代表傅聪(前排右)在人工智能能力建设国际合作之友小组专题会议上致辞。图源:新华社
国际社会已普遍认识到,全球AI治理要建立更加协调、更具包容性的治理框架。尽管当前已经有多项全球性人工智能治理倡议,但这些倡议往往由少数最发达的西方国家主导,世界大部分地区仍被排除在外。对七项主要的国际人工智能倡议的统计显示,只有七个国家参与了全部倡议,而118个国家(主要来自全球南方)未去参加了任何一项(联合国,2024年)。
为建立更具包容性、真正全球化的AI治理对话平台,有建议提出可借鉴全球性组织和机构的经验,如联合国政府间气候平均状态随时间的变化专门委员会(IPCC)、国际原子能机构,以及互联网名称与数字地址分配机构(ICANN)等(Neuwirth,2024年;Roberts等,2024年)。
为加强全球合作,联合国报告提出了一种创新的网络化制度架构,包括设立国际人工智能专家组、建立政府间和利益相关方间的政策对话机制、推进逾百项人工智能标准互认、构建AI能力发展框架、设立全球AI专项基金、制定全球AI数据框架,以及在联合国秘书处内设人工智能事务办公室(联合国,2024年)。这些机构将构成国际人工智能治理生态的一部分,并与经合组织(OECD)、全球AI伙伴关系(GPAI)等现有治理机制形成联动效应。联合国将发挥协同枢纽作用。
若上述的这些措施能落地,有望填补当前全球治理的部分空白,为更多国家和利益相关方参与塑造AI发展与应用提供机遇。但与此同时,这一过程中也需应对若干长期性挑战,包括如何协调不同政治体制与价值观——尤其是处理主要参与者之间有的分歧(Cheng & Zeng 2023;von Ingersleben-Seip 2023)。
在人工智能治理快速演进的背景下,本文提出通过把握三大机遇,重新探索如何以更具社会效益和包容性的方式制定人工智能政策。
第一,重塑当前高度失衡的人工智能权力格局,通过更积极的国家行动和公民社会参与,制衡少数科技巨头过度集中的权力;
其二,开展包容开放的讨论,明确人工智能开发和使用的目的,推动人工智能的发展趋势与社会的期望、价值观和需求保持一致。
第三,与其将AI仅仅看作是快速的技术修复手段或应对复杂社会问题的唯一方式,不如采用更具成效的系统性方法,整合广泛的利益相关者和社会技术措施,使AI成为解决问题的辅助工具。
美国AI巨头OpenAI、微软、AMD以及云服务企业CoreWeave的高管周四在美国国会参议院听证会上作证。他们都以为美国政府应支持AI芯片出口,以保持对中国的领先。图源:路透社
主要的人工智能公司不仅拥有巨大的财力和技术资源,而且还会试图影响政策和公共讨论。例如,在欧洲委员会为制定《可信的人工智能伦理指南》而设立的高级专家组中,产业界就发挥了高度影响力(Metzinger,2019)。
另外,产业界投射影响力还有很多其它方法,比如为研究人员提供资金(Rikap & Lundvall,2021)。
与科技行业在AI领域的广泛影响力相比,来自民间的其他利益相关者和受影响群体的权力则相对有限。这种权力不对称使得在AI政策的制定上,利润动机往往优先于社会福祉的考量。
政府在此可发挥关键作用。传统观点认为,技术发展主要由自由市场驱动,政府仅需纠正市场失灵。然而,这种认知已被证明具有误导性。历史经验表明,政府往往能够最终靠重大投资和承担风险,在新技术发展中发挥着积极的“倡议者角色”(entrepreneuria role)(Mazzucato 2013)。
因此,关于政府在技术发展中角色的讨论,正从“干预程度之争”转向“职能多样性”。
Susana Borrás和Jakob Edler(2020)系统梳理了政府在推动社会技术变革中可承担的多元角色,比如可当作监督者预警潜在风险;作为先导用户、联合设计者,为满足公共需求而寻找具体的解决方案;此外政府还可以鼓励利益相关方通过参与式流程来共同定义变革方向。
研究表明,全球AI政策实践中已形成了这种政府角色的多元化特征。各国的政策文本既赋予政府促进AI发展的倡议者角色,也强调其风险管控的监管者定位,同时还要求其促进社会参与(Djeffal等,2022;Papyshev & Yarime 2023;Ulnicane等,2021)。
政府及公共机构在技术发展中能更加进一步利用其多元化的角色,重塑权力格局来构建更平等的AI治理体系。这并非是主张在技术领域形成“强势政府”或“国家主导”,而是强调政府应以积极有为的姿态,通过吸纳多元社会群体参与AI政策制定并赋予实质性话语权,推动更加公平的AI权力分配。
同时,在技术层面,政府不应过度依赖外部机构,也需要提高自身在这方面的能力。通过平衡政府、科技巨头与公民社会的权力分配,可以推动人工智能从当前的供给驱动型技术(主要服务于产业,以替代劳动力等私利为目标)向需求导向型转型,使其真正成为一项回应社会利益关切的技术。
机遇二:构建AI发展的集体共识导向
一个共识正在渐渐形成,那就是技术发展不仅关乎推进速度,更涉及方向选择(Diercks等,2019)。
近年来兴起的负责任创新、社会挑战导向等技术发展路径,其核心要义在于突破单纯的风险管理模式,也就是从仅关注规避技术给社会带来的负面效应,转向强调通过民主程序确立技术发展目标,并着力培育技术应用的社会正向价值(Owen等,2012)。但当前生成式人工智能热潮中,过度聚焦风险管理议题而忽视技术发展趋势考量的现象仍旧尤为凸显(Ulnicane,2024)。
技术发展的目的可以从两种典型范式出发进行思考,一个是经济竞争力范式,另一个是社会挑战范式(Diercks等,2019;Schiff,2023;Ulnicane,2022)。
传统技术政策框架下,研发技术与应用的首要目标是提升国家竞争力和促进经济稳步的增长。在此框架下,全球技术竞争被视为零和博弈——一国独享技术红利(涵盖政治、经济、军事等多重维度),他国则陷入发展困境。这一范式隐含一种“技术即正确”的预设。
这一范式的核心假设正面临日益严峻的挑战。在气候危机时代,学界开始质疑经济稳步的增长是否仍应作为技术发展的首要目标,以及该目标与应对气候平均状态随时间的变化之间是不是存在兼容性。对国家竞争力的过度关注会导致更紧迫的问题被忽视(Krugman,1994)。
早在1970年代,技术政策研究者就发现技术发展产生的非均衡现象,即所谓“登月与贫民窟”悖论——政府成功实现登月计划的能力远超其解决城市贫困问题的能力(Nelson,1977)。更关键的是,大量技术实践已被证实其负面性(Coad等,2020)。
如今,技术政策领域正兴起替代性范式,那就是将应对气候平均状态随时间的变化、公共卫生、社会不平等等全球性挑战确立为技术发展的核心使命。该范式将全球技术演进看作是一种正和博弈,主张通过跨国界、跨部门、跨学科的协同创新,使多国及社会群体共享技术红利。这一理论的前提包含两个层面的认知:技术效应具有双重性(兼具积极与消极影响),因此就需要审慎引导。
人工智能政策领域正呈现两种范式的角力(Schiff,2023;Ulnicane,2022)。经济竞争力范式主导下,多国争相宣布争夺AI主导地位的战略,将全球AI格局塑造为“新太空竞赛”叙事。当前,中美在AI领域展开地缘技术霸权争夺(Ulnicane,2023)。为强化竞争优势,各国政府正运用传统经济政策,包括加大投资、培育技术、实施税收改革等。
欧盟正对在AI领域落后于中美两国的现状感到焦虑,包括对经济安全、数字主权乃至的多方面担忧。近日,欧委会主席冯德莱恩宣布将投资2000亿欧元(约合1.5万亿人民币)以促进人工智能的发展。图源:新华社
在AI政策实践中,社会挑战范式同样获得广泛印证,诸多政策文本宣称AI将助力解决当代最紧迫社会问题、加速实现可持续发展目标(SDGs)。
例如联合国报告精确指出,《2030年可持续发展议程》及其17项SDGs,可为AI研发部署提供价值坐标,引导技术投资聚焦全球发展挑战(联合国,2024)。
然而此类乐观论述往往存在认知盲区:当强调AI将促进性别平等等SDGs时,却刻意回避AI通过歧视性算法加剧性别不平等的诸多案例(Ulnicane & Aden,2023)。
“若缺乏包容性治理框架,AI不仅难以有效助力实现SDGs,反而可能强化系统性偏见。AI绝非可持续发展挑战的万能药,它仅仅是解决方案的组成部分。唯有通过政府、学界、产业界与公民社会的协同创新,才能确保AI解决方案的公平普惠”(联合国,2024)。
人工智能政策中通常会同时提到AI对国家竞争力和社会挑战的贡献目标。这引发了有关两者兼容性的问题:有没有可能同时实现这两个目标?怎么来实现?需要做哪些权衡?
此外,尽管追求集体商定的技术发展目标至关重要,但也不能高估引导技术发展的可能性,因为技术发展的关键特征包括不可预测性、不确定性和偶然性。
许多关于人工智能如何拯救民主、打击虚假信息和减少不平等的承诺,往往将AI呈现为快速解决高度复杂和不确定社会问题的技术修复手段。这种“技术修复”(technological fix)的概念自20世纪60年代以来就已存在(Johnston 2017)。
“技术修复”很类似于近年来技术讨论中的一些概念,如“技术万能主义”(technological solutionism)和“技术沙文主义”(techno-chauvinism),其反映了一种普遍信念,即计算技术解决方方案(Computational solution)优于其他所有解决方案,包括人类自己制定的解决方案(Broussard,2023)。
“技术修复主义”的一个关键前提就是技术是一种解决复杂和不确定社会问题的快速且廉价的手段。而一系列的社会问题也可以简化为狭隘的技术问题。还可以由工程师在没有公众参与的情况下自行解决。这种技术性解决方案被认为优于政治、经济、教育以及其他社会科学的解决方案。
美国物理学家阿尔文·温伯格(Alvin Weinberg)是“技术修复”理念的主要倡导者之一,他在以下问题中总结了这一思维:
“我们能否为深刻且几乎无限复杂的社会问题找到快速的技术修复?这些‘修复’是否在现代技术的掌握范围内,还可以在不改变个人社会态度的情况下消除原有的社会问题,或者至少能够如此改变问题,使其解决变得可行?”(Weinberg,1966)
在Weinberg提出其问题60年后,技术修复(technological fixes)的吸引力依然不减,尽管基本上没有证据说明这些技术修复能够真正解决社会问题。相反,技术修复反而有可能带来新的问题。它们因很多原因而受到批评:不完整、无效、机械化、无法触及问题核心,并且过于片面(Rosner,2004)。
为什么尽管存在批评,技术修复的吸引力依然如此大?主要是因为优先采用技术解决方案符合既得利益,并为科技企业来提供了销售其产品的机会。
此外,技术修复还对政策制定者也很着迷,因为技术方法可以立刻且低成本地产出结果,这很容易削弱政策制定者对那些更具雄心、更需智慧但同时也条件也更为苛求的改革项目的支持。(Morozov,2013)
“棘手问题”(wicked problems)的概念有助于思考应对现在很多社会问题所需的改革项目。“棘手问题”是指那些无法仅靠科学和技术方法解决的复杂社会问题(Head,2022;Rittel & Webber,1973),这提醒我们技术修复是有局限性的。
为了应对棘手问题,我们就一定要采用广泛的社会技术方法,AI可以成为一系列社会和技术措施的一部分,但绝不应成为唯一的解决工具。这样的广泛社会技术方法需要来自公共和私营部门以及受影响社区的各方利益相关者参与,而不单单是工程师和技术专家。
人工智能政策的一个悖论在于,尽管AI被呈现为一种新兴技术,但许多核心政策理念却非常老旧,甚至有超过50年的历史(Ulnicane 2022)。当前关于数字技术(包括人工智能)的政策思维,Karen Yeung将其概括为“数字迷信”(digital enchantment),其特征包括崇拜数字解决主义(digital solutionism)、技术无害论(absence of ill-effects doctrine)以及对无约束创新的价值的神线)。
这些理念依然很流行,并且与庞大产业利益紧密结合。同时也吸引政策制定者,因为它们声称能够最终靠“神奇的AI革命”解决医疗、教育等多个领域的重大问题,而无需更全面且要求更高的改革。
本文就是要提醒人们注意这种思维的不足之处,并强调了替代性方法。我们大家可以通过引入更多样化的利益相关者和受影响社区参与政策讨论,将过时且过于简单化的政策叙事重新框定为更加细致和丰富的方案,并通过整体性的社会-技术方法应对这些挑战。在这一系列方法中,AI可以是众多措施之一,但绝非唯一的解决方案。
英加·乌尔尼坎(Inga Ulnicane),剑桥大学利弗休姆未来智能研究中心(LCFI) 助理教授。她专长于政策研究、政治学和科学技术社会的交叉研究。她发表了大量有关人工智能的政治和政策、新兴技术的治理、负责任的创新等主题的文章。除学术研究外,她还为欧洲议会和欧盟委员会编写研究报告。
华南理工大学公共政策研究院(IPP)是一个独立、非营利性的知识创新与公共政策研究平台。IPP围绕中国的体制改革、社会政策、中国话语权与国际关系等开展一系列的研究工作,并在此基础上形成知识创新和政策咨询协调发展的良好格局。IPP的愿景是打造开放式的知识创新和政策研究平台,成为领先世界的中国智库。