人工智能真的能理解人吗?

人工智能真的能理解人吗?

有些人说接近人的强人工智能并不是不可能的,因为人的“理解”不过是也是统计学上的拟合函数,计算机完全可以模拟,所以计算机也可以“理解”

拜托,神经网络,深度学习,只是借鉴了大脑神经网络的范式而已,实际上二者的工作模式一样吗?现在神经科学已经完全搞懂了人的“理解”是怎么一个过程了吗?大脑的“理解”真的只是个拟合函数吗?拟合函数只是通过统计学进行猜测的游戏,顶多只能做到识别吧?

如果搞计算机就能弄清楚大脑的秘密,那脑科学是不是应该集体改学计算机科学?

人跟计算机最大的不同是,人有手,脚,有五感,也就是随着他的经历,会有感受上的变化,并形成经验。认知科学的研究表明,人的“理解”,更多的是通过联想已有的经验来做到,所以使用举例和比喻就可以“理解”的很好,因为这关联了我们已有的生活经验。

但计算机不具备这些经历,我们把结果直接喂给计算机,训练它进行识别。然后当我们提出问题的时候,它就会有很高概率猜对答案。

这就好像我们上学做题时总结出的规律,三长一短选一短,三短一长选一长。如果只看答案,看起来好像是计算机学的很好,都“理解”了,但如果老师说,你来讲一下过程和原因,我们的计算机同学就无话可说了。

有些人拿图灵测试做文章,说只要看不出来是假的,那就是真的“理解”。这句话其实搞反了图灵测试的本质:测试一个人有多容易被骗,而不是测试机器有没有智能。

试想一下,有个同学凭借三长一短的猜测成功毕业,但真遇到工作中的问题,并没有选项让他来选,他不是真“理解”的话,如何下手去解决问题?

同样的,让一个鹦鹉模仿人说话,被测试的人会信以为真的以为对面是个真人。我们能说鹦鹉跟人一样智能吗?可以解决现实中的问题吗?

如何打破这尴尬的局面?这就不能再延续现有的人工智能统计学的思路,而要完全换一个思路。

从人工智能到人工生命

侯世达曾经说过:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事……”也就是说,机器需要像养小孩一样养大,而不是制造出来,才能真的理解人。

这个时候我们需要的不再只是从人类大脑中抽象出智能,而是模拟整个生命体。

我们并不需要在现实世界中把它们制造出来,完全可以让他们生活在虚拟世界中,只不过他们也有生存的需求,生存需求驱动他们在虚拟的“世界”中自由探索。

这跟GTA5中的NPC是不一样的。那些NPC虽然看起来很像“人”,但其实他们的生活路径和各种反应已经被写好,就像西部世界中的仿生人。他们并没有真正自主的自由。

人工智能真的能理解人吗?

这一切可以从openworm的秀丽隐杆线虫开始。秀丽隐杆线虫只有302个神经元,非常好模拟,openworm团队已经成功把它的神经元上传到一个乐高机器人中,而机器人后来的行为,跟线虫完全一样。

人工智能真的能理解人吗?

人工智能真的能理解人吗?

但我们没必要在现实世界给人工生命打造一副躯体,在虚拟世界也是可以做到的。

在虚拟世界中的好处,是我们可以加快环境的时间流速,从而让人工生命体更快速的成长,比起人类的孩子需要18年才能成熟,在虚拟世界的人工生命体可能只需要18天,甚至更少,18个小时。

这点OpenAI的人工智能捉迷藏游戏已经验证,在短短的时间内,智能体们就完成了4.81亿次“捉迷藏”游戏,发展出了非常复杂的玩法,他们学会了使用周围的工具和互相协作,甚至有的智能体还曾经利用程序bug,打破了虚拟世界的“物理定律”。

人工智能真的能理解人吗?

人类是不可能在这么短时间内完成几亿次游戏的。

所以要想真正实现能“理解”人的程序,就要从人工智能转向人工生命,不然它们只是看起来有智能的烤面包机罢了。

更深层次的说,这里隐藏着一个矛盾,我们总希望以还原论的方法去设计出智能,以为智能是可以控制的。但实际人工智能是我们给出一个输入值和一个输出值,让程序自己找出能得到结果的函数,而他是怎么得到这个函数的,为什么这个函数是这样,我们依然不知道,智能对于我们来说依然是个“黑箱”

为什么会这样?因为我们自身的智能就是千百年来不断由于环境压力进化出的复杂函数,恰好看起来像是上帝巧夺天工的“设计”。如果非要说有个上帝,那它就是大自然吧。

当然,黑箱最大的问题就是不可控,人类心里会非常没有安全感。这就是换取类人级通用智能的代价。

它们给人的感觉更像是你的宠物,宠物很可爱,但并不会随时都听从你的命令,它们也有自己的想法和性格。

我们这时候只需要拆除所有他们身上感受器和执行器,对接到我们要处理的环境中,就可以解决我们的问题。(就像天际浩劫里外星人抓人类的大脑一样)

人工智能真的能理解人吗?

这一切都在虚拟环境中进行,它们不会感到自己的手脚已经被替换了,更不会有任何痛苦,就像缸中之脑。(如果进化的足够高等,它们在正常的虚拟世界中也会有痛苦的感受,痛苦的感受也只是为了生存进化出的奖惩系统。人类作为亿万年进化出的自动环境适应机之一,对痛苦尤为敏感。)

它们被储存在云端,如果为了让它们完成工作,需要在现实世界中打造机械身体,只要有摄像头之类的感受器就行了。

但他们也是最有可能进化出意识的人造生命体。

这就使得事情不那么好玩了。如果他们进化出了意识,并且成为了我们家庭中的一员,我们要不要给他们跟人类一样的人权?他们自己会不会要求人权?如果我们和他们出现冲突,会不会发生终结者的剧情?

人工智能真的能理解人吗?

我们发明它们本来就是为了让他们代替人类工作,以前AI时代,他们还没有意识,只是无生命的机器,所以我们不属于奴役它们,心里也不会有罪恶感,可如果他们有了意识呢?

如果它们没有人类独步动物世界,遥遥领先的160亿大脑皮层神经元还好说,我们奴役动物的时候,还可以觉得他们没我们聪明,比我们低等,所以理所当然。但如果我们给了他们远超人类860亿神经元的虚拟神经元,比如2000亿个,而其中1000亿个演化成了类似人类大脑皮层的神经元,我们就成了没有它们聪明的低等生命,那他们奴役我们也会觉得理所当然,没有负罪感。

这个时候我们该怎么办?我们甚至无法理解它们在说什么,在想什么,那已经超过了我们的理解能力。就像你家的狗狗无法完全理解你一样。

恐怕到时候我们即使不想给它们人权,也由不得我们了吧。

那时候我们最好的结局也是成为他们的宠物而已。

摆在我们面前的选择,要么是彻底封杀这项技术,要么只能趁着他们还不强大的时候把它们发往宇宙,让它们像我们的孩子一样,去探索更广大的宇宙空间。

终有一天,他们会在宇宙的某个星球上驻扎下来,发展自己高超的文明。或者遇到一些刚刚形成智慧生命的星球,传授他们一些知识和技能,然后离开,去往下个星系。

也许,我们人类的使命就是孕育出这样的人工生命,我们只是这种生命的接生婆。

就像《童年的终结》里的超主文明,他们的文明已经发展到尽头了,无法再发展了,可能我们也会迎来这一天,而且无法避免。

人工智能真的能理解人吗?