反乌托邦的捷径——给大脑装个芯片,与计算机相连……
全文4904字,预计学习时长15分钟
图源:zcool
在日本反乌托邦动漫《心理测量者》中:未来的科技时代,人类由一个大AI系统管理——西比拉系统(AI与人类大脑相连接)。
人类的心理状态和性格倾向都能被数值化,所有的感情、欲望、社会病态心理倾向等全部被记录并管理。所有的监控摄像头都与西比拉系统相连,通过监视人类的色相浑浊程度和声音、视频等信息,来随时随地计算人类的每个心理状态和个性倾向所衡量的值。这个成为判断人类灵魂标准的测量值,人们称其为“Psycho-Pass”。西比拉系统能测定人的能力推荐适的职位,甚至可以给人做私人订制。
如果将AI与人类大脑相连接的技术放在现实中,会发生什么呢?
假设现在是2045年,你闲逛来到大脑设计中心。在那里,人人都可以购买一个甚至多个大脑芯片来提高自己的智力。希望自己的数学像数学家一样专业,可以购买“人类计算机”芯片;想追求宁静致远的境界,可以购买“禅意花园”芯片。
而这些仅仅是个开始。提升专注力、拥有精湛的音乐技艺、进行心灵感应直接看到其他大脑强化人的思想等等,还有许多其他各种各样功能的芯片,任君挑选。那么你又会选择哪一个呢?
图源:news.cecb2b.com
如果难以抉择的话,不如找位哲学家一起思考这个问题吧?
当然,两位更好。
埃文·塞林格(Evan Selinger)是罗彻斯特理工学院的哲学教授,也是《再造人类》一书的作者之一。苏珊·施耐德(Susan Schneider)是美国国家航空航天局(NASA)和国会图书馆天体生物学和技术创新领域的主席,也是新书《人工的你:人工智能和思想的未来》的作者。
以下为这两位嘉宾的谈话内容,经过小芯精心整理编辑,非常精彩。
在大脑里植入人工智能
埃文:《纽约时报》的系列文章《未来的专栏点评》给我留下了深刻的印象。作者通过假设10-100年后可能发生的情况,发表一些虚构的观点和评论。这种写作形式打破概念和道德对读者想象力的限制,使他们得以用全新的眼光看待现在。在我自己召开的监督研讨会上,我甚至要求学生将这一形式作为写作的模板,以便他们也能批判性地思考当下关乎隐私和权力的紧迫问题会如何加剧亦或是如何改善。
您在该系列中发表的文章《是否应该在大脑中添加微芯片》描绘了这样的未来情景:AI的发展导致绝望感在失业群众中蔓延,他们不得不考虑购买大脑芯片以增强自己的认知能力,改变自己的情绪倾向。为什么我们现在需要担心未来会发生这样的事情呢?
图源:pixabay
苏珊:我们现在应该考虑这种情况是因为科幻小说正在迅速变成现实。如今,多个大型AI研究项目都试图将人工智能部件放入人类大脑或者与人体周围神经系统相连。对于Facebook,Neuralink和Kernel这样的公司而言,人类大脑就是未来的摇钱树。这些公司正在尝试如何不借助键盘直接将人类大脑连接到云端。如果没有适当的法律法规,人人内心最深处的想法和个人生物特征数据都将被贩卖给出价最高者。独裁专政最终将拥有确保所有公民都安分守己的最佳途径——将奥威尔式主义思想直接植入异议人士的脑里,只要扫描大脑就可以迅速定位他们身处何处。
埃文:这确实令人担忧。事实证明,保护个人隐私并非易事。人工智能面部识别技术成为一种完美的镇压工具。这一工具太过危险,伍德罗·哈佐格(Woodrow Hartzog)和我都认为应该禁止使用。也许这个社会最不愿看到的就是科技公司又有了出卖用户数据的新技术,尤其是如果这项技术会使得深度提取个人信息和高度私密细节变得更加容易。您认为我们是否应该阻止AI 入侵我们的大脑?
苏珊:我很高兴看到人工智能和医疗神经技术的发展。目前这方面的研究包括泰德·伯格(Ted Berger)正在进行的一个项目——创造一种人工海马体来帮助那些记忆严重受损的人,这一研究现已到达了人类临床试验阶段;另外美国国防高级研究计划局DARPA正致力于开发闭环神经植入物以帮助那些患有创伤后应激障碍(PTSD)的人。但是,如果认为我们对人工智能的应用应该超越治疗用途而关注大脑增强,那就完全是另一码事了。
所以,是否应该去大脑设计中心提高智力呢?单从科学角度无法回答这个问题。如何进行大脑增强是一个关乎价值的问题。正如我在书中第二部分所写,这也关乎如何正确地理解形而上学以及理解为什么要对意识、自我和思维本质进行讨论。我们需要规范AI的法规,尽管目前大家已经默认将思想的未来托付给像Facebook这样的公司。
埃文:当然。可以肯定的是,我们需要对科技公司保持警惕,他们鼓吹创新使生活更加便捷有趣只是为了引我们上钩。很难想象Facebook大肆宣传提供一项服务让消费者能够将自己动态更新直接发送到朋友的大脑里,理由会是语音或打字输入太耗费精力。如果马克·扎克伯格(Mark Zuckerberg)吹嘘穿戴式和植入式的大脑控制技术会带来医疗益处,那可要当心了。持怀疑态度并不为过,卡蒂娜·迈克尔(Katina Michael)的建议就很合理,应当了解护理工具可能会被如何重新设计从而用于扩大社会控制。
苏珊:是的,这说明了所有利益相关者都参与讨论人工智能和思想未来的重要性。
埃文:这种情况已经引起了许多赛博朋克(未来世界的电脑科幻小说)科幻小说家的关注,除了与隐私相关的担忧之外,还有什么是需要担忧的呢?
“一个大脑尚未增强的人,相比一个大脑高度增强的人或人工智能,他们之间的差距将是巨大的。在这种智力碎片化的公民群体中,民主应该如何发挥作用尚未可知。”
苏珊:埃隆·马斯克(Elon Musk)建议,为了赶上超级智能的复杂计算,应对未来的技术性失业,人类不得不与AI结合。但是,试想一下,几十年以后,人类的劳动力已经无法与AI相提并论,于是所有人都倍感压力,想要提升技能以保住自己的工作。为此,你可能会觉得自己除了“大脑设计中心”以“增强大脑”外没有其他选择。但是人们应该拥有选择退出的基本权利。而大脑更新之后的人甚至可能不再是原来的自己了。
该如何应对这一挑战呢?我们需要超越思维简单的商业模式,不再将大脑、思想和自我视为人工智能技术发展所带来的下一个营利领域。我们不是商品。(准确来说应该是:众生皆非商品。这一标准对非人类生物同样适用)。我们需要更加尊重智力差异。一个大脑尚未增强的人,相比一个大脑高度增强的人或人工智能,他们之间的差距将是巨大的。在这种智力碎片化的公民群体中,民主应该如何发挥作用尚未可知,因为各人的需求和心态将有很大的不同。
展望未来,改变当下
图源:1000thinktank
埃文:如果公司将自动化开发到了极限,出现物资严重匮乏,导致群众将大脑芯片视为一种必不可少而又强制性的恶,那么人们将无法自由决定如何过自己的生活、对待自己的身体。正如我和布雷特·弗里施曼(Brett Frischmann)在书中所指出的那样,人们不希望丧失人性,不想在工作场所中被当作机器人对待。但这些已成为现实,而且已经持续很长一段时间了。在数字泰勒主义出现之前,就已经有流水线式的泰勒主义了。
苏珊:这就是为什么公开对话非常关键,尤其是有关法规制定的公开对话。在华盛顿,技术性失业是一个严重的问题,但是认真考虑过人工智能最终可能会在每个领域都超越人类的决策者却不够多。短期来看,对工人进行再培训或许是可行的办法,但是如果AI在每个领域都变得愈加便宜和高效又该怎么办?会有多少人不再获得任何收入,这一点目前尚不清楚。
我听到很多有关全民基本收入的讨论。如果想要实现全民基本收入的话,我们需要弄清楚大众如何从少数人那里分一杯羹。这些人拥有一些高收益算法的知识产权之后迅速将资产转移到海外,享受大量的税收减免。再者,如果人工智能真的成为了“人”,可能是因为我们误以为它们也会产生感情(我认为有情人工智能是一个有待商榷的问题),而它们也只会独享自己的劳动成果。数字经济可能会导致人类过时。所有的这些问题都不是很棘手,但是需要我们用正确的方式解决。
埃文:您认为对技术未来发展的考虑是否会敦促今天的我们成为更好的人呢?再举一个例子吧,假设那些为机器人争取权利的人是正确的,即如果真的创造出了有情人工智能,人类应该善待它们。但是难道社会现在不就应该在尊重动物权利方面做得更好吗?换句话说,我们真的应该从未来看现在寻找保持道德一致性的方法吗?
“也许到时候人工智能反而会问自己:既然我们的智力远超人类,那么我们是否应该给予人类特殊的道德关怀?”
苏珊:当然。担心未来有情机器人可能会被剥削利用而现在对动物的痛苦漠不关心,这是不对的,尤其是当后者显然正在我们的身边发生。此外,我们人类将来可能很快就会发现自己成为了现在的那些非人类生物。假设超级人工智能比我们聪明,那么人类与超级智能之间的智力差距类似于目前我们与狗猫动物之间的差距。也许到时候人工智能反而会问自己:既然我们的智力远超人类,那么我们是否应该给予人类特殊的道德关怀?
埃文:那么此时此刻是否存在人们滥用假说来回避做正确事情的危险呢?以控制问题为例,有人担心AI的利益会与我们人类的利益不符。在马斯克的思想实验中,设计用来采摘草莓的人工智能毁灭了一个文明。原因是该人工智能为了提高效率进行了自我重新设计,决定在所有地方都种植草莓——真的是所有地方。
科幻小说家泰德·姜(Ted Chiang)撰写了第一期《未来的专栏点评》,在他看来,上述这些都是胡说八道。他认为马斯克对AI的描述可以反映出了一种心理——即对科技公司在“最少的监管障碍下追求最大收益增长”这种自由理念下行为方式的另一种描述。从这个角度来看,大型科技公司的领导担心人工智能自动化会带来诸多问题其实是假的。他们其实不太在意自己过分人性化的种种劣迹。而当他们开始致力于如何从控制问题中拯救人类时,他们反而看起来就像是我们地球的救星。
苏珊:我怀疑像比尔·盖茨和埃隆·马斯克这样花费时间、金钱和精力来解决和宣传控制问题的人其实别有居心的。但是我也注意到,控制问题出现时,一些企业领导人往往会变得紧张,因为他们对所有钓鱼文章都保持警惕,比如关于《终结者》的新闻报道。这说明公关做得很差。
不管怎样,撇开对各种动机的猜测,真正重要的是控制问题是件需要严肃考虑的事情。即使在接下来的20至70年中我们失去对AI控制的风险只有6%,难道我们现在不应该为防止这种情况的发生而做好准备吗?正因为潜在的影响太大了,所以即使这种事情发生的可能性很小,我们也需要注意。这样做并不会降低当今诸如隐私、算法歧视和黑盒算法等问题的重要性。这些问题依然很重要!不幸的是,许多人认为“担忧也存在预算”。因此,他们认为对一系列问题的关注会阻碍其他领域的进步。但这样的想法不过是自欺欺人。
图源:Unsplash
埃文:如果所有与人工智能有关的重要问题都有足够的资源来解决,那肯定哪里出了问题。但我认为情况并非如此。由于“担忧预算”和财务预算密不可分,因此重要的是,为将来可能发生的问题提供的资金不应该以忽略更为紧迫的问题为代价——尤其是当这些资金涉及到的司法问题会影响到弱势群体和边缘化人群。
苏珊:我们今天讨论的关于未来和当下的问题有着密切的联系。现在,我们在保护隐私和确保算法公平性方面所做的工作越多,那么将来大脑设计中心真正存在的时候,我们也会受益更多。现在建立的政策框架如果设计合理的话,就可以帮助确保未来大家的想法不会被监视,确保大家大脑里运行的任何应用程序都不会吸收外来偏见或是成为连本人都不理解的“黑匣子”。
留言 点赞 关注
我们一起分享AI学习与发展的干货
欢迎关注全平台AI垂类自媒体 “读芯术”
(添加小编微信:dxsxbb,加入读者圈,一起讨论最新鲜的人工智能科技哦~)