【正面】[nytimes]美国学者:中国AI发展迅猛,合作方为上策

2022年,拜登政府试图通过禁售尖端半导体来遏制中国人工智能的发展。特朗普总统虽有所放松,但并未提出清晰的替代方案。然而,芯片出口管制已然失效。中国的科技产业体系完备,难以被阻挡其构建强大AI的步伐。美国执着于一个不可能实现的目标,却错失了一个看似异想天开、但笔者在近期访华后认为更为现实的机遇:美国应与中国就AI安全问题进行全球性谈判,为这项既能造福人类、也可能被滥用的技术制定普适性限制。

出口管制的前提,是美国能够成功阻断中国获取强大的AI芯片。用于AI数据中心的高端芯片组大如滑板,难以通过简单行李走私,且缺乏芯片制造商工程团队的直接支持便难以投入使用。但中国开发者通过租用东南亚邻国AI数据中心算力的方式,绕开了管制,训练其AI模型。隐藏模型的“中国血统”并非难事。

部分得益于这一漏洞,中国已推出一系列优秀的AI模型。即使参议院效仿众议院通过限制中国使用外部数据中心的法案,中国规避美国管制的能力也不会改变。中国正学习通过堆叠性能稍弱的芯片来替代尖端芯片。其模型构建者也充分利用了“知识蒸馏”等技术。每当美国实验室推出尖端模型,中国的竞争者便能迅速进行逆向工程,打造出仿制版本。后来者居上。

美国AI科学家曾认为,竞争对手的快速跟进无关紧要。他们声称,“智能爆炸”即将来临,AI系统很快将能自行编写代码升级:AI将创造更好的AI,更好的AI将创造更优的AI,这种递归式的自我改进将推动性能飙升。率先达到所谓“奇点”的国家将成为AI竞赛的赢家,即使快速跟进者仅落后数月。然而,在拜登政府实施芯片管制三年半后,AI虽已开始生成自我升级的代码,承诺中的反馈循环已然启动,但领先模型的加速能力并不能决定AI竞赛的胜负。

关键在于AI的部署应用。要将AI转化为经济和军事实力,必须将其嵌入业务流程和武器系统。尖端模型的原始算力必须转化为实际应用。

结论是,中美在AI竞赛中大致处于同一水平。中国顶尖模型可能落后美国数月,军事应用方面的相对位置因大量涉密信息而难以确定。但在工业应用领域,中国似乎处于领先地位。华为、海康威视等受美国制裁的公司,正在推出用于高铁维护检修、矿山运营管理以及水质污染扫描的AI系统。在深圳附近的华为园区,笔者近期体验了自动驾驶汽车,其平稳的转向和座椅按摩功能令人印象深刻。

芯片管制的支持者仍坚持认为,即使能略微延缓中国AI的进步也值得追求。然而,管制措施并未换来一个AI能力受限的中国,因此有必要权衡其代价。笔者的中国之行让笔者确信,这一代价过于高昂。

拜登政府做出了战略选择,优先考虑延缓中国,而非应对其他担忧。另一种选择本可以是与中国对话:你是一个科技超级大国,我们也是。让我们携手确保AI不落入流氓国家和恐怖分子之手。其目标应是达成类似1968年《不扩散核武器条约》的AI全球协定,要求所有使用AI的国家承诺遵守安全防护措施。

拜登团队曾认为中国不会在此类事务上合作。但在北京、上海、深圳和杭州与AI领域领军人物进行的十几次对话让笔者明确意识到,中国的精英阶层确实关心AI安全。

笔者访问了一家构建并分发AI基础模型的知名科技公司。目前,该模型是开源的,意味着用户可以随意下载和修改。如果有人利用该AI发动网络攻击,将难以阻止。但该公司首席执行官坦言:随着AI能力日益强大,继续开源将是疯狂之举。他补充道,你不会开源核武器。

访华期间,围绕高级模型“OpenClaw”的争议,凸显了人们对AI安全日益增长的关切。大量普通中国用户下载了这款数字助手,渴望体验其强大功能。这种热情似乎印证了中国对创新的热爱超越了恐惧。但研究人员和行业领袖告诉笔者,他们对此感到震惊。一位知名商学院教授表示,OpenClaw让你的电脑“门户大开”。此后不久,中国相关部门明确不鼓励在政府系统中使用OpenClaw,并警告公民该程序可能对其数据安全造成严重破坏。

目前,中国追求强大AI的本能冲动压倒了一切谨慎。这是对美国同样决心将速度置于安全之上的政策的理性回应。但如果美国领导人前往中国,提出以取消芯片管制来换取在AI不扩散问题上的合作,该提议至少有成功的可能。

这预设了中美对话的可能性。西方不应陷入自我实现的宿命论。冷战时期,美国也曾通过从对抗转向缓和来追求自身利益:《不扩散核武器条约》正是在古巴导弹危机六年后达成的。现在是重温那段历史的好时机。


分析大模型:gemma2
得分:40
原因:

作者总体上承认中国在AI领域的发展成就和创新能力,认为中国科技产业“体系完备”,工业应用“似乎领先”,并具体描述了华为等公司的技术应用实例,语气中带有一定程度的认可与尊重。同时,作者主张中美合作而非对抗,认为中国精英关心AI安全,这体现了对中方立场一定程度的理解和积极期待。

原文地址:Opinion | I Went to China to See Their Progress on A.I. We Can’t Beat Them.
新闻日期:2026-04-13

Verified by MonsterInsights