
(2026.02.04,新加坡)在全球人工智能竞争持续升温之际,中国人工智能企业正就“AI安全”议题作出更多回应,强调相关风险管理应结合中国社会与文化背景,而不应该完全以西方标准作为唯一评判依据。
根据《南华早报》报道,随着多家中国AI公司计划在农历新年前推出新一代大型模型,市场对中国AI产业的发展与治理模式的关注度明显上升。
过去一年来,部分海外用户因担心中国AI模型在安全与合规方面存在不确定性,对其采用持观望态度。其中,中国人工智能公司深度求索(DeepSeek)因安全与监管争议,在美国、意大利和印度等十多个国家受到限制或禁用。
不过,第三方评测机构指出,踏入2026年后,中国主流AI模型在性能表现上,已将与美国同类产品的差距缩小至历来最低水平。这一进展提升了中国AI企业的技术竞争力,也促使外界对其在风险控制和责任治理方面提出更高要求。
前DeepSeek研究人员涂津豪(Tu Jinhao)表示,中国AI行业长期聚焦于算力投入与模型训练,目标是尽快缩小与美国的技术差距,但在这一过程中,安全研究与风险评估的资源相对有限。他认为,随着模型能力快速提升,行业有必要在技术发展与安全投入之间取得更平衡的配置。
此外,中国AI企业也不断面对来自海外机构的压力。当中,美国非营利组织“生命未来研究所”(Future of Life Institute;简称FLI)去年12月发布的报告中,就批评包括DeepSeek在内的部分中国AI公司,在安全措施和内部治理方面披露不足。FLI主席、麻省理工学院教授马克斯·泰格马克(Max Tegmark)指出,随着中美AI企业的技术能力逐步接近时,双方应承担相近水平的安全责任与透明度要求。
对此,中国企业强调,外界看到的“沟通不足”并不代表忽视风险。北京智谱华章科技有限公司(Zhipu AI;亦称智谱AI)全球业务负责人李子玄(Li Zixuan)表示,公司内部已建立系统性的安全评估流程,并设置针对敏感内容的拒绝与管控机制,只是相关细节并未全面对外公开。
该公司开发的GLM模型(大语言模型),虽在FLI的评估中仅获较低评级,但已于2024年5月率先在韩国举办的人工智能首尔峰会(Seoul AI Summit)中,签署了“全球自愿AI安全承诺”。
李子玄指出,中国AI企业在制定安全标准时,必须考虑本地社会规范与文化环境,这些做法未必完全符合西方社会的理解。“价值观并非完全一致,但不同地区之间仍有大量共同点。”他说,中国企业愿意在坚持本土背景的同时,遵循被广泛认可的基本原则。
总部位于上海的稀宇科技有限公司(MiniMax)同样签署了相关国际承诺,但至今尚未发布完整的安全框架。不过,该公司已参与多项国际AI治理交流,包括在东京大学举行的“中美经济二轨对话”(The U.S.-China Track II Economic Dialogue)。据了解,参与该对话的还包括OpenAI和字节跳动(ByteDance)。
从监管环境来看,中国在AI治理上更强调制度化管理。北京咨询机构安远AI(Concordia AI)中国区负责人方亮(Fang Liang)指出,西方以自愿披露为主的治理模式,在实际操作中更有利于美国企业,而中国企业则需遵守较多强制性法规和行业规范。
过去一年来,中国陆续推出多项针对AI服务的监管措施,包括AI生成内容标识要求,以及针对AI陪伴类产品的监管草案。根据中国互联网监管部门的最新数据显示,自标识制度实施以来,包括字节跳动和DeepSeek在内的主要AI平台,已在短短四个月内为超过1500亿条AI生成内容加上标识。










































