人工智能无疑是近年来全球最受关注的话题之一。继2024年OpenAI引领新一轮技术革命之后,2025年DeepSeek的出现再次将AI推向更高的发展阶段。当人工智能逐步渗透至社会各领域,其治理与安全问题也愈发引起全球关注。在今年的博鳌亚洲论坛上,一场聚焦人工智能的高端对话,不仅回顾了AI当前的突破,也深刻探讨了它在未来发展中可能引发的伦理挑战与制度重构。
这一年来,人工智能的发展速度超出多数人的预期。如今,生成式AI已成为焦点,其中“智能代理(Agent)”的兴起引发了新的安全担忧。部分专家指出,当AI具备自我规划、学习和执行能力,并能主动完成任务目标时,虽然极大提升了技术应用的效率,但也使其运行路径更加不可预测。尽管智能算法并非完全的“黑箱”,其内部机制在某些层面仍属未知,这种不确定性使得系统的可控性大幅下降,潜在风险随之上升。
DEEPSEEK推动对安全治理
DeepSeek今年在全球取得的巨大影响。它的最大成功实际上在于成本,让预训练的成本降到了以前的1%,这在经济学的意义上是极度重大的。同时,DeepSeek让推理的成本降到了1/20,这是数量级的成本下降,又用了开源的模式。但是,在DeepSeek之后是直线起飞,这也就带来了安全治理最大的担忧。

中国社科院大学江小涓教授认为,一个技术是否能被接受,可以从两个原则来考虑,能否提高生产力,创造更多的财富;发展的结果能够实现公平分享。
以此来看,AI的发展肯定提高了劳动生产力;第二个原则,能否被社会所有成员分享,这个问题以经济学角度上讲比较简单,就业是否充分,分配是否公平。“如果不能解决这两个问题,我们就应该有替代政策,因为就业的冲击必定会出现,应该有新的社会保障政策来执行它。每个时代有自己的价值观,当技术改变这些价值观的时候,我们也要相应改变,而不是一而再地重复包容、共享,否则技术是无法落地的。”
另外,在经济学的角度讲,DeepSeek使垄断的深科技变成了真正竞争的产业,以前只有寡头才能做AI,现在变成了普遍性的竞争,从技术化的能力变成产业化的能力,这两个使传统市场经济中的竞争格局就形成了。
谈到人工智能取得的进展,清华大学智能产业研究院(AIR)张亚勤院士分享了刚刚从硅谷参观AI公司的经验,他认为AI的规模定位已经在放慢。而DeepSeek带来的震撼,用更好的资源、更开源的模式,可谓是两年来人工智能领域最大的、最规模性的创新,也是中国对全球的贡献。
他说,AI从信息智能走向物理智能,特别是无人驾驶、机器人等,也走向生物智能,脑机接口、生物体大模型等等。人形机器人还需要更长的时间,AI的监督从预训练走向推理,从信息智能走向物理智能和最终智能,中国扮演重要的角色。
中国DeepSeek横空出世令世界为之震惊。中国科学院研究员曾毅泽指出,DEEPSEEK的有些进展可能被忽略了。它以相对的小算力实现了更高的智能表现。比如在算法层面,解决一个特定问题时,并不需要整个生成式神经网络上更新所有的权重,可以利用一种基于路由的机制去做任务,这样就极大地降低了算力。
“其实我们人类的大脑当中,丘脑就是发挥了路由的机制,遇到问题的时候是有些脑区参与任务,而不是整个大脑同步动起来。这样一个算法并不是完全地受大脑启发的,但是可以说跟我们的生物大脑演化的结果应该是异曲同工的。”
他认为,自然演化的规律与计算演化的结果在深度融合,这使得人工智能的发展自然或不自然地受到大自然的启发。“人脑毕竟是数亿年演化的结果,未来的人工智能的发展,不仅仅是在行为尺度达到用户可接受甚至类人水平,在计算机制上进一步受到自然机制的启发,这包括学习机制,人类发育演化机制,我想这可能是未来人工智能在科学上非常重要的走向。”
曾毅以研究为例,说明安全和发展之间不是掣肘的关系,人工智能在实现充分安全的情况下,它的能力几乎不受损。他也指出,现在中国国内的人工智能大模型,在认知问题求解能力上与GPT系列是同一水平上的,但是在伦理框架上还有提升空间。
此外,他强调一个结论,过去重视人工智能的安全,今年伦理安全应该作为人工智能大模型发展的基因,应该作为第一性原理,不可删除,不可违背,同时可以做到稳健发展。同时,他也提醒,不要让人工智能完全代替人的决策,决策权利要保留在人类手中。
治理标准需要建立目标和共识
去年,诺贝尔经济学奖获得者阿西莫格鲁(Acemoglu)对人工智能的作用表达了悲观的看法,他认为每年只有新增的0.05%,也就是说可以忽略不计。但是另一位经济学家估计每年对全球经济的增长大约可以到1%到1.5%。
虽然0.05%和1%这个数量级的差距是巨大的,但是江小涓教授指出,市场的力量可以自发地解决效率问题,也可以解决安全问题,因为DeepSeek本质上就是市场的力量。
芬兰前总理阿霍最近在芬兰出版新书《决策》。他在公共部门工作多年,积累了丰富的决策经验,他说,所有决策者在做决定时有三个方面要同时考虑的东西:首先是历史因素,还有相关挑战,以及未来的具体事实的发展。
他例举,蒸汽发电是在1769年获得的专利,60年后在英国作为蒸汽发电的主要来源。第一部手机在1973年得以使用,而2000年的时候已经有7亿人可以使用移动设备。
从中不难看到,技术的进展和应用是飞速的,相对而言,人类的认知和理解,这其中存在差距。怎么解决这个差距问题呢?阿霍认为,这不是技术本身的问题,更大程度上是文化、政治的问题。
要保证所有人都能够获取AI的均衡,实际上有两个维度,纵向的发展和横向的发展。纵向来看,美国、中国、欧洲遥遥领先,又彼此竞争,其他国家很难能够赶上。横向而言,他认为应该从均衡主义、公平以及所有人的市场来考虑这个问题。
阿霍对AI保持乐观,认为AI是很好的工具,让落后的国家能够迎头赶上,通过横向的发展,可以改进企业、机构和业务。AI的治理需要通过一些标准化的机制。这些需要研究者、开发者、政策制定者共同参与来形成标准,形成共识。“我们需要找到一个合适的目标,这和早期的移动技术类似,1983年大家并不了解,也无法确立未来移动技术的导则和指南,但是移动技术需要建立共识,后来欧盟起到了引领作用。我相信对于AI来说,也可以用类似的方法,需要把政府和企业组合在一起达成共识”。
在人工智能整个发展过程中,基本上人们有安全的概念,但是从技术维度或是从治理维度上达成标准仍未达到共识。目前,从安全治理的角度,全球有三种治理模式,欧洲偏重于安全的治理模式,美国偏重于发展的治理模式,中国是平衡发展和安全的治理模式。
最终的标准仍需要实践来证明。张亚勤院士认为,“对安全和风险不可预知的部分要保持警惕。信息安全是没有问题的,它的可控性和可信度可以通过技术解决。而风险管理,则需要定义红线和边界,因为技术不断发展,有了边界之后,就有了解决问题的目标。”
平衡中知识产权的挑战
关于人工智能的治理原则,2019年,OECD颁布的第一个人工智能原则就是可信的AI,以人为中心的AI,同时还要有一些可量化的AI原则,比如信任问题。另外OECD也建立了一个观察组织,研究AI相关的事故或事件,哪些是需要AI做的,什么是不需要AI做的。同时,要设有一个参数体系,这样才能真正建立起智能的AI。“这是一个非常复杂的技术,我们需要复杂的治理”。
经济合作与发展组织全球关系与合作主任绍尔介绍说,没有一个联合国的机构或者一纸协议来治理AI,因为需要考虑到不同的原则,也没有控制手机或互联网的机制和其他协议,因为涉及到很多国家的规则。对于OECD,也需要开发出相关的标准,在联合国进行讨论,让所有的国家提出自己的看法。
人工智能的治理是复杂而立体多维的系统。英国励讯集团公共事务总裁池永硕则以他从事的出版行业来说明,人工智能获取信息,其中面临的知识产权的冲突。
励讯在多年前就对人工智能的应用和治理进行了思考,池永硕分享了几个处理原则,首先,是要解决一个真正的世界所面临的问题,一个真实的问题,而且是和人相关的问题。
其次,要意识到偏见。因为每个人都有偏见,我们要确保我们的模型不会把人类的偏见延伸到机器领域。第三个原则,不能够出现黑箱,它必须是透明的。我们不仅要知道答案,还要知道答案是哪来的,它为什么这么思考。
他郑重地说到,第四个原则,监管。“我们不能够让机器自己管自己,不能够信任机器,否则的话我们就失控了,我们得信任人,这是人与人之间的关系,我们每个人对自己的行为负责,不能把事情完全交给机器来做。”最后他强调,要尊重隐私还有数据的治理。
这里有一个冲突需要去解决,那就是所有的大语言模型从某件东西那去学习,这个某件东西是属于某人的,是有版权的,那么他们是不是付费了呢?他们是不是有使用许可呢?还是简单地拿来就用,有没有给知识创作者带来回报呢?
“很多内容是没有版权的,但有些内容是有版权法律保护的。说到安全,其中一个要坚持的安全原则就是,我们不能够去依靠机器给出的答案,哪怕有时幻想以为是没问题。”
科学或者是出版物是人类宝贵的思考成果。如果把这些文献和科学、论文、技术加入到大模型里面,是否能提高大模型的精确?对此,池永硕仅是部分同意。“因为科学是在不断演进的,人们后来会发现之前的科学结果有可能是不可靠的,它是不断演进、不断迭代的情况。科学之所以要出版,用户觉得这个出版物很重要,他才会付费阅读。”
DeepSeek出来以后直接解决了产业垄断、技术垄断问题。人工智能的治理,还是讲市场规则,就是市场自发秩序的问题。江小涓教授认为,从出版来讲的话,现在公开的信息,并不是所有的都需要政府进行管制。在管和不管之间,需要明确局部的治理秩序,这是非常重要的。
张亚勤院士补充说,AI作为一个工具,需要遵守现有的版权、专利、技术以及实践性的设计。如果AI没有价值,AI的道德也没有意义。AI只是人的一个代理,AI的道德价值是人的道德价值,这是应用和治理之间的平衡上要考虑的。