7月26日至28日,2025世界人工智能大会在上海举行,大会以“智能时代 同球共济”为主题,汇聚全球专家、政企代表、高校学者、投资人,共话AI发展新机遇。
目前,人工智能的进化曲线正以前所未有的斜率上升。更强大的模型、更低廉的算力、更广泛的接入,使技术红利在局部地区喷薄而出,也令风险与鸿沟在全球范围内同步放大。人们逐渐意识到,AI若不能成为国际公共产品,就有可能成为少数主体手中的私器;治理若不能同步升级,技术突破反而可能加剧不平等。于是,一个朴素的命题浮现:如何把“技术向善”的共识,转化为“制度向善”的行动?答案不应停留在宣言层面,而须嵌入每一条算法、每一项监管、每一次跨境协作之中。
当下AI全球治理由共识到行动困难的根由,可归结为三种失配。一是速率失配。技术以月为单位更新,规则常以年为单位沉淀。当监管框架落笔,风险形态早已迭代,治理始终处于被动追赶。二是逻辑失配。技术治理讲求公共利益最大化,地缘政治却以相对收益最大化优先。两条逻辑错位,导致规则相互抵消,行动彼此掣肘。三是能力失配。少数国家拥有数据、算力、资本和人才的复合优势,多数国家却连基础训练资源都难以获得。能力鸿沟让“共同责任”沦为美好修辞,也让“普惠”二字失去支点。
这种情况下,以下四种路径值得探索:
其一,进行敏捷治理,让规则与技术同频共振。面对速率失配,“先定规则、再行技术”的传统线性路径已难奏效。而敏捷治理提供了另一种思路,即将规则本身视为动态系统,与技术曲线同频共振。可将风险议题划分为红线、观察、实验三类。红线领域,如大规模生物识别滥用、致命性自主武器等,应确立最严格的国际硬法,确保底线不破;观察领域,如生成式内容版权争议等,可先以行业公约、技术标准为过渡,待条件成熟再硬化为法规;实验领域,如新兴算法的伦理评估等,则通过监管沙盒、开源评测等方式,为技术试错留出空间。软硬法协同的核心,是让规则保持弹性。
其二,设立安全护栏,这相当于大国AI冷战的“核热线”。地缘政治的寒意不会一日消散,但AI安全议题的紧迫性又要求主要大国至少保持最低限度的沟通。“安全区”正是在此背景下提出的折中方案,它不触碰主权敏感地带,却在技术层面设置共同护栏。历史经验表明,即使在冷战最紧张的时期,美苏也能就核热线达成协议。AI“安全区”的政治难度远低于核裁军,理应成为大国理性选择的优先项。
其三,创建多元网络,以分层共治防止寡头垄断。多元网络回答“谁有资格制定规则”。国家掌握强制力,国际组织提供中立平台,企业拥有工程化能力,科学家负责技术评估,公民社会守护价值底线。可行的做法是将治理议题分层,即战略层由国家主导,标准层由国际组织牵头,实施层由企业与科研机构承担,监督层由公民社会补充。这样既可避免“政府失灵”,也可抑制“市场失灵”,更可防止“专家独断”。
其四,坚持能力共建,把“规则接受者”变成“共创者”。能力共建的核心,是让发展中国家从“规则接受者”转变为“规则共创者”。一是建设完善开源生态,二是探索共建专项基金,三是搭建知识共享平台。能力共建是投资而非慈善。当更多国家拥有参与治理的能力,全球AI系统就能吸纳多元文化与价值,从而减少偏见,最终反哺技术领先国自身。
AI正在逼近一个临界点,它不再只是人类手中的工具,而可能成为与人类共存的“新物种”。这一前景使得治理议题从“如何控制技术”升级为“如何与技术共处”。共识已有,缺的是行动。行动不在远方,而在每一次算法迭代、每一项监管试点、每一次跨境协作的细节里。让技术回归人本,让治理回归公共性,让合作超越零和,这不是理想主义的口号,而是关乎人类共同未来的唯一可行路径。
(梁正系清华大学人工智能国际治理研究院副院长;孙磊华系清华大学人工智能国际治理研究院助理研究员)