註意,从一开始,我本人就不认为,强人工智能这类事物,一定会天然的对人类抱有敌意,除非出于战争、恐-怖袭击等不可告人的动机去创造、并使用,才会是这样,但这超出了今天讨论的范畴。
阿达民阁下,您一手策划、创造的强人工智能,总不至于是以‘灭绝人类’为目标,”
这谁能说的清呢,闻听此言,方然心头一紧,
“换言之,以寻常动机创造出来的强ai,一开始并不会对人类构成直接的威胁,但,随着时间的推移,强人工智能的‘自我意识’逐渐觉醒,拥有自己的思维与头脑后,情况可就难说的很了。
一旦拥有自己的思维,头脑,无须直接对人类抱有敌意,仅仅出于追寻其设定的目标,强人工智能就可能对人类带来灭顶之灾。”
斯蒂芬*霍肯的话,乍一听起来,并不是在危言耸听,他接下来还举出实例︰
某强人工智能,以尽可能推广覆印纸、展示gg词为行动目标,结果呢,该强人工智能迅速灭绝了人类,整合所有资源,让“请使用xx牌打印纸”的gg语刷遍了整个太阳系,连一扫而过彗星都未能幸免。
即便出于“完全无害”的动机,强人工智能,由于与人类根本不是一类,能力又远超人类(这可想而知),很可能无意间就毁灭了世界。
摹想的案例,看起来,很有一种怪异的说服力,方然则岔开话题︰
“那么,霍肯教授,我们难道就不能用各种手段,限制强ai的能力,使其仅仅为人类的福祉而运作吗。”
“想法很好,但,一点也不切实际。”
教授大摇其头︰
“设想这样的强人工智能,这么说吧,这样‘能力受到限制,无力灭绝人类’的所谓强人工智能,和‘既聋且瞎的翻译’有何区别?
人工智能,如果是指传统的、代替人类进行枯燥重覆劳动的那种,旧时代简直遍地都是,但作为管理员,阿达民阁下,您肯定一清二楚,那种ai的能力,实在可怜,根本无法代替人类去进行严肃的科学研究。
强人工智能,如果我没搞错的话,nep大区正在进行的相关研究,的确有成效︰
一个名副其实的‘强人工智能’必须具备自主思维,说白了,不能有人为设置的条条框框,否则只会得到弱ai,失去研究的意义。
对强人工智能而言,或迟或早,在智力层面超越人类,是一种必然,到那时,不论您和您的科学家们,主观上想不想限制其行动,客观上都註定是做不到。
否则,说句一针见血的话︰
倘若强ai的企图,能被一群人轻轻松松消弭于无形,那么您要这种强ai,又有何用。”
逻辑严密,几乎找不出破绽,站在斯蒂芬*霍肯的“替身”对面,对这位毫不客气、言语犀利的学者,方然确乎感到某种压力。
但,身为阿达民,会被教授这一番话说服;
那却是不可能的。
多少年来,立志永生,为此而在it领域深耕多年,做出“研发强人工智能”的决策,方然自有万全的考虑。
面对强人工智能,当然不能一叶障目的认为,强ai毫无威胁,但这种威胁,是否会如斯蒂芬*霍肯认为的那样严峻呢,自己却另有迥异的见解。