我们一直在讨论人工智能,有一种声音认为,人工智能是人类的救星,未来的一切问题,都有可能被人工智能彻底解决。
但也有另一种声音提出反对意见,人工智能非常危险,如果不加以防范的话,人类极有可能被人工智能毁灭。
2015年,世界上最著名的机器人索菲亚出生了,它是世界上首个获得公民身份的机器人。
索菲亚拥有橡胶皮肤,看起来和真人差不多,设计它的机器人学家,在它的大脑中植入计算机算法,所以它能够识别人的面部,并且能与人进行眼神接触,交流中还可以露出适当的表情。
索菲亚有超过62种面部表情,不过有些人怎么看它都觉得别扭,甚至产生害怕情绪,这其实是一种,叫做恐怖谷的效应在起作用。
日本的机器人专家森昌弘,提出这个心理学理论,他认为,由于机器人与人类在外表、动作上的相似,所以人类会对机器人产生正面的情感。
而当机器人与人类的非常相似,而且突破了一个临界点的时候,人类对他们的反应就会变成负面,哪怕只是存在一点点差别,人类都会觉得产生一种怪异、诡诞的感觉。
但当机器人和人类的相似度继续上升,就好像成为你身边的一个普通人的时候,人类对他们的情感反应会再度回到正面,甚至产生人类与人类之间的移情作用。
也就是说,人类对机器人从与人类相似,到相似到一定程度,再到与人类几乎无差,是经历了一个波浪似的情感反应的。
因为这个心理机制,很多机器人专家在制造机器人时,都会尽量避免“机器人”的外表太过人格化,避免跌入“恐怖谷陷阱”。
那么为什么人类会出现这种心理反应呢?
首先就是人类担心机器人会产生威肋,还是拿索菲亚来说,它的设计会使得它越来越聪明,它的脑内,最核心的人工智能系统,可以让它分析过去的对话。
这意味着每次和人对话过后,它都会进行自我升级,有人为这种技术进步欢呼喝彩,但也有人因为它的出现隐隐不安。
特别是在一次和人类的对话后,你就能理解这种不安。
后来,再有类似“机器人会不会毁灭人类”,“你会伤害人类吗”,这样的敏感问题,索菲亚都用打岔、反问的方式回避了过去。
好像确实是这样,它每一次出现在公众面前,看起来都比上一次更聪明,更像人类一点,仿佛已经有了“自我意识”。
当像索菲亚这样的人工智能,大量出现在你的生活中,你会感到恐惧吗?
很多科幻作品都讨论过人工智能,和人类之间的关系,比如《西部世界》、《银翼杀手》《机械姬》等等,比如《西部世界》、《银翼杀手》《机械姬》等等。
很多科学家甚至都相信,人工智能是能够获得智慧的,虽然现在有索菲亚这样稍微高阶的人工智能存在。
但目前世界上普遍存在的是弱人工智能,它们没有自己的思想,没有情感,只知道执行任务,只会根据历史数据判断未来。
不懂得创新,智能程度较弱,而我们在科幻作品里看到的,更多的是强人工智能,他们完全可以像人类一样,有自己的思想和兴趣,会哭会笑,敢爱敢恨。
他们拥有的智能非常强大,强人工智能真的能够实现吗?
这个问题很难回答,如果实现了,我们人类面对的问题更多,比如说,当它们发展出超群的智慧,体力上又比脆弱的人类强悍数百倍,那么人类,会不会被人工智能取代?
著名科幻小说家阿西莫夫,在上世纪50年代,就预想了人和机器的矛盾,设计出了一套机器人的准则,主要是用来约束机器人的行为。
里面的第一条是:也不能在人类受到伤害的时候置之不理。
第二条:机器人必须遵守人类发出的命令,只有当该命令可能会违背第一条定律的时候除外。
第三条:机器人必须保护自己,前提是保护过程中不会违背第一和第二定律。
在阿西莫夫的作品里,这三条定律在机器人制造之初,就设计进它们的大脑里,之后很多的文学作品,基本上都遵守机器人定律来叙事。
阿西莫夫的贡献很大,有了这三大 法则,机器人就不再是“欺师灭祖,以下犯上“的反面角色,而是人类忠实的仆人和朋友了。
但是,机器人三大定律真的能约束机器人的行为吗?
有人认为,该定律没有将人类和机器人的情感问题考虑在内,这也是目前关于人工智能情感模块讨论最多的话题,至于如何处理,目前谁都没有答案,机器人可能会从低级升到高级阶段。
我们不知道它会毁灭人类还是服务人类,就像《最强蜗牛》游戏里的小蜗牛的变化一样,不同的是,这只蜗牛实际上拥有高智商大智慧,它超越所有种族,拯救了尚未毁灭的世界,成为最强生物的故事。