日本以“广岛进程”谋求人工智能国际规则话语权
2024-03-25 10:36:00
字号:大 中 小
2023年无疑是生成式人工智能技术的爆发之年。全球范围内ChatGPT、DALL-E2、Gemini、文心一言等各种生成式人工智能应用层出不穷,令人眼花缭乱。相关技术不仅可以高效完成大量简单重复的劳动工作,而且可以部分取代具有一定专业门槛的工作,比如撰写法律文书,出具医疗诊断报告,甚至进行文艺创作等。ChatGPT出现后,包括OpenAI、Anthropic、DeepMind等全球顶尖AI技术公司纷纷认为,在未来十年出现通用人工智能(AGI)即“强人工智能”的可能性正在不断提升。
人工智能在加快技术创新、提高生产效率、丰富用户体验的同时,也对隐私保护、社会伦理、网络安全等各方面产生复杂的影响。尤其是人工智能技术本身还面临“训练数据投毒”“提示词攻击”等风险敞口,在稳健性、可解释性、公平性等根本性问题上仍面临巨大挑战。与此同时,一些犯罪分子已经开始利用人工智能技术作恶,网络攻击和电信诈骗在全球高发,大规模杀伤性武器扩散和恐怖袭击的风险也随之上升。国际社会对人工智能能否与人类价值对齐以及是否会失去控制的担忧日益加深。为此,众多科学家和行业领袖以及国际组织积极呼吁将防范人工智能技术滥用的风险作为全球治理的优先议题。
一、日本开启“广岛人工智能进程”
鉴于生成式人工智能技术带来的广泛影响,七国集团(G7)数字与技术部长会议于2023年4月在日本高崎市举行,并就如何协调人工智能治理框架以及开展国际对话进行了磋商。到了5月的七国集团广岛峰会上,七国首脑决定启动“广岛人工智能进程”作为协调制定人工智能监管国际规则的平台。峰会上,各方都认识到生成式人工智能对促进经济和技术发展以及解决气候变化等全球性问题带来的重大机遇,但同时强调“广岛人工智能进程”应侧重于“负责任”地使用人工智能技术。尤其在应对生成式人工智能可能导致的侵犯版权、侵犯人权和隐私保护、危害网络和数据安全、虚假信息和认知操纵以及大模型的扩散等问题上,七国集团成员试图建立一个可互操作的治理框架,从而抵消全球技术治理中的碎片化挑战。
自“广岛人工智能进程”启动以来,日本充分利用其七国集团轮值主席的身份协调各方立场,组织部长级会议,并开展多项配套活动。10月8日,第十八届联合国互联网治理论坛在日本京都举办,关于人工智能的全球协作治理成为重点议题,相关国际规范和行为准则在会上得到广泛讨论,并为月底即将发布的七国集团倡议预热。10月30日,七国集团首脑就“广岛人工智能进程”发布联合声明,要求与包括发展中国家和新兴经济体在内的全球多国政府以及广泛利益相关团体进行协商,并呼吁生成式人工智能开发者遵守相应国际行为准则。同时发布的还有《广岛进程组织开发先进人工智能系统的国际指导原则》和《广岛进程组织开发先进人工智能系统的国际行为准则》,共确立了全生命周期监管、透明度与问责机制、信息共享和披露机制、安全风险管理机制、数字水印技术、国际技术标准制定、保护个人数据和知识产权以及应对全球性挑战等11项指导原则。
尽管“广岛人工智能进程”的结果不具法律约束力,但仍然为全球人工智能治理和规则制定提供了参考坐标。就在七国集团首脑发布声明的同一天,美国总统拜登签署了《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》,在确保安全、个人隐私、促进创新和负责任使用等原则方面与七国集团的声明高度一致。时隔两天后,首届全球人工智能安全峰会在英国伦敦举行,各国签署了《布莱切利宣言》,同样与七国集团的声明有诸多重叠之处。
日本正是看到这一点,意图抢占全球人工智能治理规则的话语权,既能利用“广岛人工智能进程”在激烈的全球规则竞争中纵横捭阖,居中协调,又能借七国集团的“东风”倒逼国内全领域数字化、智能化改革,持续推进人工智能研发和应用。日本首相岸田文雄也在多个重要国际场合表示,日本力求成为全球人工智能创新中心,引领相关国际规则制定,并不断将国际人工智能发展的要求整合到日本国内经济和社会发展的一揽子计划之中。
二、“软法范式”和“敏捷治理”是两大特色
在具体的监管路径方面,目前七国集团成员内部仍有大致两派意见。其中一派支持“硬法范式”,以欧盟的《人工智能法案》为代表的,实行严格的风险分级监管,并强调与治理、透明度和安全相关的责任和义务。另一派则支持“软法范式”,即将非约束性的指导原则和规范置于全面监管之上。其中,美国主张主要依靠人工智能开发者的自愿承诺,英国主张技术创新优先。日本同样支持“软法范式”并与其国内人工智能治理范式保持一致。
日本国内目前并没有通过普遍限制人工智能使用的法规,对人工智能的监管主要以自愿为原则并提供不加约束力的指导方针的办法。比如2019年日本内阁发布了《以人为中心的人工智能社会原则》文件,提出以尊严、多元包容和可持续作为人工智能社会的基本理念,确立了以人为中心、教育应用、隐私保护、安全保障、公平竞争、公平、问责和透明、以及创新这七项原则。为了推进“七项原则”的落地,日本内阁设立的综合创新战略推进委员会随后又出台《实施人工智能原则的治理指南》,通过提供拟实施的行动目标、实施实例、差距分析实例等分享实践范例。但这些原则指南都不具备法律约束力,主要依靠人工智能企业自愿遵守。
日本之所以倾向于“软法范式”主要还是考虑到支持人工智能技术的发展和应用,避免由于过分严苛的监管扼杀创新。尤其在新一轮人工智能技术发展的早期阶段,政府对于技术发展和应用的了解也存在局限性,往往很难制定非常明确的监管规定。因此,“软法范式”在新兴技术发展早期较为有效。
除此之外,日本国内严重的老龄少子化、劳动力不足、财政负担加剧等结构性问题也迫使政府对人工智能的补偿和替代效用寄予厚望。早在2015年的《日本复兴战略》中,人工智能就被作为今后产业和就业结构改革的重点措施加以研究。2016年,日本又在《第五期科学技术基本计划》中提出“超智能社会”(Society 5.0)发展目标,从而确立了以人工智能为核心的发展路线。在此基础上,日本政府以“人工智能战略会议”“人工智能技术战略委员会”等推进顶层设计,出台《人工智能战略》《未来投资战略》系列报告明确重点产业和应用场景。但由于日本数字企业在国际上的竞争力相比中美两国大幅落后,数字技术人才更是严重短缺,过去几年并没有如预期的那样在人工智能研发和应用方面取得瞩目成绩。有鉴于此,日本政府不得不小心翼翼地平衡人工智能技术发展与负责任地使用之间的关系。
“敏捷治理”是日本近年来在国内监管及参与国际治理遵循的主要模式。所谓“敏捷治理”是指针对新兴技术不断变化的特点,能够不断适应、修改和完善治理方案,从而避免传统治理模式的碎片化和滞后性等问题。在日本国内的多份指导原则和七国集团的声明文件中都提到,由于人工智能技术的复杂和不确定性,治理目标会随着技术和应用的变化而不断变化。单一固定的治理模式往往难以奏效。因此,相关治理原则如全生命周期的监管就强调可持续性,即针对人工智能技术从研发前到部署后的不同阶段动态调整监管措施。鼓励人工智能企业主动透明并及时披露安全信息,从而避免由于信息不对称和政府监管滞后导致的安全风险。推动政府和企业合作制定相关标准,并开展持续评估和修订,从而灵活应对人工智能技术的快速发展。“软法范式”本身也和“敏捷治理”相辅相成,能够最大限度体现治理主体的包容性,激发自主性,实现以推动创新为目的的监管模式。
三、未来国际协作治理的可能举措
参照网络、数据等相关领域的全球治理经验可以推断,日本在下一阶段或通过“三步走”策略推动人工智能领域的国际协作治理。
首先是在更大范围内分享人工智能监管的最佳实践案例。由于目前人工智能技术正在快速迭代更新,从现有法律体系内抽象出一套完全适用未来人工智能发展的监管模式难度较大。因此,日本在国内也是以“软法”先行,结合人工智能在不同场景应用中遇到的实际问题,为利益相关方提供实践案例和差距分析案例作参考。
在国际层面,日本可能借助与七国集团关系密切的经合组织、全球人工智能伙伴关系(GPAI)等平台分享在不同领域防范人工智能风险的最佳实践案例。在此基础上,如果最佳实践案例被广泛接受,那么相关的指导原则、技术手段、管理和审计流程都有可能通过国际标准化组织(ISO)等专业机构形成更加精细、可量化、可推广的标准。
最后,各国原本碎片化的人工智能技术认证和合规流程能够在上述国际规范和标准的对接下实现联通和互操作。这将成为日本“广岛人工智能进程”的长远目标。
2023年10月,中国在第三届“一带一路”国际合作高峰论坛上发布了《全球人工智能治理倡议》,坚持以人为本、智能向善,推动全球人工智能健康有序安全发展。中日两国应当抓住人工智能技术为人类进步和发展带来的巨大机遇,同时共同面对和协商技术发展不确定性带来的风险挑战和治理难题。中日双方在人工智能发展的原则问题上高度一致,在提升人工智能技术的安全性、可靠性、公平性以及形成全球人工智能治理框架等目标方面也有着广泛的共同利益。中国拥有世界上先进的人工智能技术和大批优秀的企业及专业人才。日本则在机器人、生物医药、康养和智慧城市等产业应用方面积淀深厚。期待中日两国从推动人工智能技术造福人类和子孙后代的高度出发,更好地开展相关领域的沟通交流和务实合作。
(澎湃新闻2024-03-19,复旦大学发展研究院金砖中心副主任 江天骄)