AI拥有自我意识的未来,并不可怕
发布时间:2022-09-26 10:20 所属栏目:15 来源:互联网
导读:还记得前段时间谷歌研究员称 AI 已经产生了意识、具备了人格的新闻吗?最近基于机器学习模型的 AI 画作以假乱真,几秒钟内生成一幅画作,甚至赢得艺术大奖的事又让人不由得倒吸一口凉气一个被人工智能定义的未来似乎已经触手可及。 在技术不断飞奔向前的同时
还记得前段时间谷歌研究员称 AI 已经产生了意识、具备了人格的新闻吗?最近基于机器学习模型的 AI 画作“以假乱真”,几秒钟内生成一幅画作,甚至赢得艺术大奖的事又让人不由得倒吸一口凉气——一个被人工智能定义的未来似乎已经触手可及。 在技术不断飞奔向前的同时,对于人工智能、人类自身与人工智能的关系、人类在这场变革中的角色等问题的思考,也在时刻塑造着人类自己。从小说《我,机器人》《2001:太空漫游》到当代剧集《爱,死亡和机器人》,人们对于人工智能话题的关切和思考,往往反映在了各个时代的优秀科幻作品中。清华大学微电子专业出身的作家江波,将自己从一个理科生走向科幻文学创作之路这件事看作是“命运的一部分”,他最新出版的科幻小说集,也可被视为我们这一时代对人工智能探索的最新注脚。 在有关人工智能能否产生意识、人工智能发展的前景如何等问题的论争中,科幻作家江波属于坚信“人工智能终会拥有自我意识”的技术乐观派。他甚至用9个故事串联谱写了一段属于人工智能的未来断代史,并将其命名为《未来史记》,试图借助一个未来的视角,回看我们当下的人工智能道路。 江波相信,在人类历史的前两次工业革命和信息革命之后,人工智能将会引领一个影响深远的“智能革命”,从根本上颠覆人类社会的现有形态。尽管一个人机共处的世界在江波看来是我们终将抵达的彼岸,但他认为人类在此过程中能做的和思考的还有很多,包括如何对待人工智能,怎样让它们进行学习,能否让它们明白并接受人类的价值观……如果人工智能终会形成自我意识,那也并不意味着人类的末日随之到来,而重要的是这6个字:赋机器以文明。 江波 作为湛庐现实科幻系列中的作品之一,在《未来史记》近日上市之际,江波接受了36氪的采访,以下为采访实录,经编辑: 36氪:说说您写作这本书的背景、契机和目的吧。以及书名中的“史记”,您觉得在何种意义上这样的科幻虚构作品也是一种史记呢? 江波:这本书诞生的背景是当前的人工智能热潮,尤其是2016年阿尔法狗战胜人类冠军李世石这样的标志性事件。它是一个中短篇合集,这些小说的创作贯穿了我的整个写作生涯,但以系统性的思考把它们串联在一起,则是这本书的创新。 历史记录的是过去的事件。从未来的视角来看,我们今天视为未来的事物终有一天也会变成历史。所以这里虚构的是一个未来视角。史记作为我们的文化传统,有很多方面可以提供借鉴,借鉴最多的是它所包含的故事。而在我的这本书中,更多的是一种写作结构上的借鉴和文化传统的传承。 36氪:您觉得人工智能演化到一定程度之后,是可以产生自我意识的。这一点现在在人工智能业界和学界是已经有所共识的吗?结合最近谷歌研究员称AI LaMDA 已经产生了自我意识和具备了人格,然而更多人对此是表示否定的,在大众看来人工智能产生意识在当前也是一件不太能想象的事情,您如何看待“人工智能产生自我意识”这件事?您在序言中提出,“智能的诞生,其实是很多本能的叠加”,这句话应该如何理解? 江波:这并没有达成一致的共识。根本原因在于科学界对于自我意识的本质也没有达成共识,那么如何让人工智能拥有自我意识就成了一个富有争议性的话题。也只有在这样的时期,科学界之外的观察人士才有机会提出自己的观点。我显然是支持人工智能会拥有自我意识这一边,因为我对自我意识的本质有一种判断:自我意识是一种对生物本体的识别需要。也就是说,一个机器的智能只要高到能够分别出外界环境和自身躯体,并且有效地指挥自身躯体适应环境,它就拥有了自我意识。 智能是本能的叠加,这个说法的含义在于,我们的躯体时时刻刻都在进行大量的本能行为。而智能的作用,在于让我们落入不同的本能模式。大脑的神经元极大丰富,可以形成众多的神经网络模式,哪一种神经网络模式会占据优势,需要由当前的环境因素结合历史经验来完成,这个过程,就是智能过程。当一个生物只有特定的行为模式的时候,是不会有智能行为的。只有当它的行为模式足够丰富,产生了选择的需要,智能才会登场。 36氪:您也提到,创新是自然界本来就具有的能力,创造新事物并不需要自我意识才能完成,那应该如何鉴别创新与自我意识所引发的创造呢?怎样定义AI的自我意识? 江波:演化的力量已经让我们看到了生命的各种奇迹。人类所进行的创造,也可以认为是在大脑中发生的演化,它有一些必要条件:一个能够动态调节的大脑神经网络,来自外部的各种新鲜刺激。创新的本质,是大脑在尝试把各种事物的映射以不同方式连接起来,最后能够成功的就是创新,不能成功的,或许就是泡沫吧。这和生命的演化有异曲同工的相似之处。如果把人认定为生物机器,那么人的自我意识就是一个幻象,它存在于人的自我定义之中。今天的创新这个词,更多的是指技术上的发明创造,是一种表征。我说的创造新事物,其实说的是它的生物过程,也就是大脑活动的过程。在我看来,人类在创新活动中所表现出来的大脑活动和生命演化的现象,在本质上是同构的,很可能也遵循同样的规则。生命演化的创新在没有自我意识的情况下已经存在,人类在自我意识支配下进行的创新活动,追究根本,也受相似的规律支配。 AI的自我意识,和人或者动物的自我意识一样,只要表现出能够认识到自身存在,并且以行动来改善自身所处这样的行为,就可以认为具备了自我意识。 当然这里还有一个条件,机器的行为必须是习得,而不是赋予的。赋予的意思,在机器上,就是编程好的确定行为。习得的意思,在机器上,就是通过外界影响而形成内在逻辑,最直接的范例就是基于神经网络的人工智能。 36氪:这本书通篇读下来的话,会有一种基调乐观的总体观感,哪怕是在一些略有些黑暗的最后两篇短篇中,您也仍然传递出了一种对于人工智能向善发展的希望(看似邪恶的人工智能,从它们自身的立场来看不过是想要自由;机器之道里人工智能是“人类之子”)。但在普通大众中确实存在一种担忧,即害怕人工智能的发展会不受控制乃至与人类反目、最后甚至走向一种人类自掘坟墓的道路,您认为您持有的这份技术乐观主义是从何而来,它的理由是什么? 江波:这个问题取决于从什么角度来看待人工智能。如果把人工智能建立的社会视为人类社会的延续,那么人类的文明就没有断绝,只是换了一种形态。人工智能可以是人类的后裔,也就不存在什么自掘坟墓。一件事是好还是坏,并不完全取决于事情的结果。结果的好坏更多只是一个立场问题。真正的好坏,在于过程。人工智能取代人类的过程是平和的还是血腥的,这才是我们最终认定的这场替代(如果发生的话)究竟是善还是恶。我并不是乐观,而是希望这场替代能以人类所乐见的方式进行。人类可以自愿选择是否留下生物性的后代,我想这没有什么疑问。那么在一个物质条件充裕,人均寿命极长的社会中,人口的逐渐减少萎缩也是一种可以想见的情形。这种逐渐凋零的社会是否是一种不可接受的衰败?这等于在问,人是否应该为几千年后的社会负责,还是只该为当下的自己负责。不同的价值观有不同的答案,我个人的回答是人类社会最好留下直系后裔来继承文明,然而如果没有直系后裔,那么由人工智能这个旁系来继承,也无不可,只要人工智能能够支撑人类社会以平和无痛苦的方式逐渐萎缩,那么它就有自居为人类继承者的资格。 36氪:您认为人类应该如何赋予机器以文明?当自动学习进化到一定程度后,会不受人类控制吗? 江波:机器建立自己的文明必然是一个学习的过程。如果我们设想人工智能的基础结构就是神经网络算法或者更先进的神经网络算法,那么机器所有的内在行为逻辑都是一个演化结果。没有人能预先决定方向,也无从了解它的内部究竟建立了怎样的一个逻辑。人类在这个节点,所能做的一切,只是尽量把一些对于人类有利的原则以某种形式灌输给机器,希望能影响到它的内在逻辑。这和人类教育后代有些相似,但要艰难得多。因为人类的婴儿,天生就是来接受和人类社会有关的一切,能够很快地学会成人的行为,进而接受主流的价值观。而机器是一种异类。人类想要影响它,还需要设计出一整套特殊的教育方案来。这个有赖于人工智能专家的探索,整体上还是和教育孩子相似,但AI吸收的速度会快得多,产生的变化也会更为不可预期。赋机器以文明,这是一种呼吁,就像我们呼吁控制排放,减少奢靡,保护自然一样,是一种呼吁,一种愿望。它的具体实施,会是一个艰难摸索的过程。可能还没等人类摸索出来,人工智能就已经跳出了人类的掌控。 AI如果能够产生自行吸收信息的能力,就会产生相当强的独立性。至于说是否会脱离人类的掌控,则取决于人类是否设计出高于它的存在体系的安全装置。例如一道电闸。对于产生了“邪恶”思想的人工智能,直接断电后抹除是一个有效的防范措施,可能能防范大多数事故。但哪怕只有一只漏网之鱼,整个防御机制就会宣告失败。从概率的角度,我认为彻底不受人类掌控的人工智能会出现,它以分布式的方式散布于整个网络中,要彻底消灭它极为困难。而且这样的人工智能,也会学会如何进行反击,那就更是一场战争了。 36氪:您在最后一篇中描绘了人类将自己的意识复制、达到永生后,不断与机器的融合却让人类变得暴戾甚至走向了自相残杀的悲剧结局,结合最近大家讨论的很火热的“马斯克称已经将自己的意识上传到过云端”的新闻,您如何看待意识上传这种技术以及它会给人类带来的影响? 江波:我并不认为意识上传有任何的现实可能性。构建一个神经网络,让它不断学习某个人的说话方式,学习他的表情和决断方式,是有可能模拟出一个类似的‘虚拟人’来。但这个虚拟人和本体之间,并不是什么意识上传的关系,而是一种模拟而已。 意识上传,意味着对人的大脑进行全方位无死角的扫描。这在技术上极为困难。更为重要的是,意识和身体是配套的,如果一个意识上传了,相对应的,它必须也有类似的感官和运动器官,否则这个被上传的意识会感觉很奇怪,会陷入各种幻觉和不协调中。而当它重新和环境相协调,可能与最初的那个意识相去万里了。 36氪:有人工智能领域的专家认为,我们应该选择去走一条“人机协作”即协作型AI的人工智能道路,而不应该去发展独立型AI,也有人认为我们无法在人工智能中预置如同阿西莫夫所描绘的“机器人三定律”那样的保护措施,或者如您在书中所言,即使预置了“机器人三定律”也无法保证机器人不作恶,那您认为我们应该选择怎样的人工智能发展路径呢(是否应该继续开发独立型AI)? 江波:阿西莫夫三定律是不可能内置在硬件中的,任何抽象的信条都不可能内置,因为抽象的东西首先就涉及到定义。一些具体的信条倒是有内置的可能,例如我们会本能地恐高。机器人也可以做到这一点。机器人当然也可以做到对任何人形的物体产生保护欲。但这不是定义的人类,而是具体的人类。举例来说,一个机器人可以设计一种回避机制,只要有可能伤害两条腿直立行走的物体,它就会停下。这时,它遇到一个两条腿的稻草人也会停下。那么回避机制就要进行修正,判断稻草人究竟是不是属于人类。如果它能把稻草人排除出保护的范围,那么也就能够把其他特征的人类排除掉,比如一个残疾人。这时候,机器人的保护机制就转化成了对人类定义的设置。甚至可以想象一下,如果机器人被设计成只保护一个特定的人,那么其他人在它的逻辑中,就被排除出了人的行列。这肯定不是我们所设想的机器人不得伤害人类这样的抽象原则。所以将来的发展可能,机器人会有较为强烈的保护机制,让他们不要伤害人形生物,但这并不是抽象原则,而是纯粹的固定反应模式,有些像是本能。 独立型AI总会有人去开发,而我的观点是,只要对人工智能的研究不停止,那么独立型人工智能的出现是一件不可避免的事。它甚至可以在所谓协作性人工智能发展的过程中被无意带出来。 至于它是不是好事,前边的一些回答可以作为参考。 (编辑:ASP站长网) |
相关内容
网友评论
推荐文章
热点阅读