“知識”用英國記者Miles Kington的話說就是,知道番茄是水果,而“智慧”是指知道按照常規(guī)不應(yīng)該把番茄放進(jìn)水果沙拉中。
任何AI顯然都需要掌握大量的知識,但是如果要將AI機(jī)器人在社會中廣泛應(yīng)用,不管是應(yīng)用在高速路、養(yǎng)老院和學(xué)校、商店還是政府,都會需要學(xué)識淵博且智慧的AI。
另一方面,專注解決AI安全性或者AI一致性的科研人員眼中的人工智能是,在解決一些特定的認(rèn)知任務(wù)上效率可趕上或超越人類的機(jī)器。
目前市面上的大部分AI都屬于這個狹義的范疇,也就是只能執(zhí)行特定分工的弱人工智能,比如無人駕駛技術(shù)和面部識別系統(tǒng)。
但是一些科研人員開始研究一種能夠在任何認(rèn)知任務(wù)上超越人類的機(jī)器,也就是強(qiáng)人工智能/通用人工智能(AGI)。雖然什么時候會出現(xiàn)第一款AGI,甚至這項技術(shù)有沒有可能實現(xiàn),都是未知數(shù),但是很明顯這項研究方向?qū)䦷砜梢栽诮?jīng)濟(jì)和社會中得到更多應(yīng)用的、更強(qiáng)大的、更智能的AI系統(tǒng)。
開發(fā)能夠完成任何認(rèn)知任務(wù)的AI機(jī)器意味著,這款AI不僅要了解關(guān)于番茄的生物知識,還要了解人們處理番茄時遵循的多變的規(guī)律。
人類社會充滿了各種各樣的常規(guī),不管是吃飯、穿衣、說話,還是分享信息、對待別人和追尋目標(biāo),都需要遵守一定的規(guī)矩。真正強(qiáng)大且安全的AI將需要了解不同群體的規(guī)矩各有不同,雖然感覺這么多規(guī)矩沒有必要,但是在特定的群體遵守特定的規(guī)矩也是很重要的。
打個比方,上面說過番茄放進(jìn)水果沙拉中不符合常規(guī),說的是英國人的規(guī)矩,但是對于韓國人或者前衛(wèi)的廚師來說并不奇怪。雖然只是個沙拉放不放番茄的小問題,但是給特定的客人吃,可能會讓對方不解、惡心甚至憤怒,不利于維持良好的關(guān)系。
當(dāng)然,上面說的規(guī)矩不局限于事物的搭配這種小事,還包括一些對于社會非常重要的問題:誰和誰結(jié)婚、如何對待孩子、誰享有權(quán)利、企業(yè)如何產(chǎn)出商品和服務(wù)以及如何定價,還有評判是如何公開的。
能夠遵守社會常規(guī)的成功且安全的AI,不僅需要理解科學(xué)知識,還要了解人類規(guī)范系統(tǒng)的機(jī)制。人類的規(guī)矩跟一成不變的生物學(xué)不同,是敏感多變的,人類每天都在制定與重新制定規(guī)矩以適應(yīng)不斷變化的局勢。
社會規(guī)范體系之所以重要,是因為人類需要依靠規(guī)范來約束群體、工作、社會環(huán)境中的每個個體。只有在每個人都遵守一定規(guī)范的情況下,大家才愿意去建立信任、互相接受和共存。
同樣,讓強(qiáng)大的AI也學(xué)習(xí)人類指定的規(guī)范也將會與此相似,就好像培養(yǎng)孩子在規(guī)范的主流社會中生存的能力一樣,我們也需要將AI訓(xùn)練出能夠遵守的能力。了解關(guān)于宇宙的大量知識對于AI來說并不夠,要想在社會中有極強(qiáng)的競爭力,就還需要了解不同群體中的規(guī)矩。而對于AI來說,違背規(guī)矩不止會惹惱群體中的人,可能還會受到人類的懼怕甚至排斥。
也就是說,要想實現(xiàn)《生命3.0》中描述那種AI與人類共存的社會,建立強(qiáng)大的AGI,就要先理解最基礎(chǔ)的人類傳統(tǒng),而這將會是AI研究中面臨的最大挑戰(zhàn)。
|