本吉奥的AI忧虑:从“造梦者”到“守望者”的深刻转变
从欣喜到恐惧:AI发展带来的“寒意”
约书亚·本吉奥,这位2019年图灵奖得主、深度学习的“教父”之一,曾对AI技术的发展充满自豪与欣喜。他将深度学习技术比作自己“哺育长大”的“智慧巨兽”,看着它成长为参天大树。然而,2022年11月ChatGPT的横空出世,彻底改变了他对AI的看法。这份喜悦在短短数月内转化为深入骨髓的“寒意”,让他感到前所未有的忧虑,甚至“夜不能寐”。
本吉奥的核心忧虑源于AI系统的“黑箱”特性。这些日益强大的AI,其内部决策过程复杂且难以理解,即使是创造者也无法完全预测其行为。“我们不知道如何确保它们会按照我们期望的方式行事。”这种失控感让他意识到,AI的发展方向可能远远超出预期和控制。“我们正走在一条可能极其危险的道路上。”他在采访中坦言。
一个祖父的“噩梦”:对未来的深切关切
本吉奥的忧虑并非仅停留在学术层面,更升华为一个祖父对后代未来的深切关怀。他想到自己的小孙子:“20年后,他将22岁;他会有正常的生活吗?他会生活在一个正常国家吗?”这个念头像一根针,刺破了他的理性外壳,暴露出普通人最柔软的担忧。
他描绘了一个令人不安的未来图景:掌控最先进AI的少数实体将拥有前所未有的巨大权力。原本应是中立工具的AI,可能成为颠覆社会根基的杠杆。更可怕的是,他担忧那些出于意识形态偏执或心理健康问题的人,可能会命令高度智能的AI执行毁灭性任务,例如设计超强病毒或“镜像细菌”以摧毁地球生命。这种对“人类灭绝”可能性的恐惧,是他深夜无眠的主要原因。
从“造梦者”到“守望者”:转向AI安全的研究与倡导
面对这些风险,本吉奥做出了重大转变:从AI技术的“造梦者”转型为AI安全的“守望者”。他不再仅仅追求AI的强大,而是致力于构建“从设计上就不会伤害人类的AI”。
里程碑式的《先进AI安全国际科学报告》
为此,他牵头组建了一个由30多个国家及国际组织代表组成的国际顾问小组,并在今年早些时候发布了《先进AI安全国际科学报告》。这份报告系统梳理了AI带来的三大风险:
1. 意外故障:AI系统本身出现错误或故障导致的危害。
2. 恶意使用:如深度伪造、网络攻击等被故意滥用的风险,这是当下最迫在眉睫的威胁。
3. 系统性风险:如大规模失业、社会结构变革等宏观层面的影响。
“科学家AI”概念:为失控引擎装上“刹车”
在解决方案方面,本吉奥团队提出了“科学家AI”(Scientist AI)的概念。这是一种“非代理性”(non-agentic)AI,它没有自己的目标和意图,不会主动去“做”什么。其核心任务是像科学家一样理解世界的因果规律,进行纯粹的预测和分析。
这种设计旨在消除AI的自主目标和动机,使其成为一个可靠的“仪表盘”和“预警系统”。它可以作为现有行动型AI的安全屏障,在AI执行任务前进行风险预测和评估,判断行动可能导致的不良后果及其概率。
社会洞察:财富分配、想象力与未来挑战
本吉奥对AI的社会影响有着深刻洞察:
1. 关于经济与财富分配:他承认AI会推动GDP增长,但强调关键在于财富如何分配。“如果你看中位数财富,它和平均财富不是一回事。”这暗示了AI可能加剧贫富差距的风险。
2. 关于想象力与过度乐观:他认为社会对AI普遍“过度乐观”,因为我们缺乏对未来的想象力。“五年前,没人能预料到今天的AI水平,大家都觉得那是科幻小说。”这种想象力的匮乏使得我们难以预见和应对未来可能出现的更深远风险。
当被问及是否希望AI从未被发明过时,本吉奥的回答引人深思:“这是一个难题。我更希望的是,我们当初能集体预见到这些灾难性的可能性,那样我们就能以更谨慎、更稳妥的方式走到今天。”这并非悔恨,而是对人类在科技发展中应秉持谦卑、审慎态度的警醒。
结语:点亮前行的灯塔
本吉奥的故事是从构建智能的梦想家转变为守护人类文明的守望者的深刻转变。他的“夜不能寐”不再是个人焦虑,而是对整个时代和人类文明的深沉关切。尽管前方道路迷雾重重,但他通过呼吁、研究和国际合作,努力为AI的发展点亮第一盏灯塔。
他的努力已开始产生回响:世界各国政府纷纷成立AI安全研究所,全球性的AI安全治理网络正在初步形成。这份报告也成为了政策制定者和新入行科学家的重要参考。在AI的黎明时分,本吉奥选择成为那个敲响警钟的人,提醒我们在技术狂欢中抬头远眺,并合力建造抵御风暴的方舟。他的工作提醒我们,在拥抱科技进步的同时,必须始终将人类的安全与福祉置于首位。