关于AI如何平衡发展与安全的问题,中国科学院院士姚期智提出了具有前瞻性的观点,其核心逻辑可总结为以下四个层面:
一、发展与安全的本质统一性
姚期智院士强调,AI的发展与安全并非对立关系,而是同一问题的两面。他认为,若能设计出最安全的AI技术,该技术将自然具备市场竞争力13。这种观点打破了传统思维中"效率优先"与"安全优先"的二元对立,提出安全性本身是技术先进性的核心指标。例如,在金融、医疗等高风险领域,安全系数更高的AI系统更容易获得市场认可。
二、安全研究的双重驱动力
风险防控维度
姚院士将AI风险分为三类:
网络风险(如数据泄露、系统漏洞)
社会风险(如大规模失业、伦理冲突)
存在风险(AI成为超越人类控制的新物种)
尤其强调存在风险类似于"人类创造比自己更强大的新物种",需通过理论计算模型预测AI行为边界
商业价值维度
市场对安全的需求正从"合规成本"转向"核心竞争力"。以自动驾驶为例,系统安全等级直接决定产品定价权,这解释了为何特斯拉FSD系统安全验证耗时占总研发投入的40%以上3。
三、实现路径的关键支撑
基础理论突破
强调对AI本质的深度理解是实现安全的前提,这与数学、密码学等基础学科突破密切相关。例如,量子计算与AI安全架构的交叉研究可能产生新一代防护体系。
技术路径创新
提出"安全设计前置"理念,在算法开发阶段即嵌入安全模块。参考区块链技术中"零知识证明"的实现逻辑,AI系统可通过可验证推理机制实现过程透明化。
人才结构优化
观察到年轻研究者(90后/00后)在大模型领域的突出贡献,指出AI技术门槛的"扁平化"特征——前沿突破不再依赖长期知识积累,这为安全技术创新提供了人才基数优势。
四、中国语境下的特殊机遇
姚院士特别强调中国在AI安全领域的后发优势:
庞大的应用场景为安全技术提供测试场(如政务AI系统的10亿级用户压力测试)
政策导向加速安全标准制定(对比欧盟AI法案的滞后性)
开源生态建设降低安全研究门槛(华为MindSpore等国产框架的安全模块开源)
总结:姚期智院士构建了一个"安全-市场-技术"的三角模型,其核心洞见在于:未来的AI竞争本质上是安全体系的竞争。这种范式转变要求企业将至少30%的研发预算投入安全架构设计,而国家层面需建立跨学科的基础研究支持体系。正如他所言:"我们正站在重新定义智能物种关系的临界点,安全不是发展的限制器,而是进化的催化剂。"