小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

我們離通用人工智能還有多遠?

 taotao_2016 2018-04-19

授權(quán)轉(zhuǎn)自:心智與實在

哲學園鳴謝

作者:戴維·多伊奇

譯者:王培


戴維·多伊奇是牛津大學物理學家和英國皇家科學協(xié)會的成員,是最早提出多重宇宙論的全球著名理論物理學家。他最新出版的一本書已有中文版,名叫《無窮的開始:世界進步的本源》。該書也得到了哈佛大學著名心理學家和認知科學家斯蒂芬·平克的推薦。譯者已讀完該書,受益匪淺。多伊奇在本文中詳盡探討了他對通用人工智能的看法,其見地與侯世達似乎很接近。

長按二維碼購買




在某些方面,人類大腦的能力遠超宇宙中所有已知的生命體,這一點是沒有爭議的。只有人類才能理解宇宙的存在;或者能夠理解為什么存在著無窮多的素數(shù);或者能夠理解由于時空的彎曲,蘋果會掉落;或者知道按照自己天生的本能行事可能會犯道德錯誤;或者能夠意識到自己的存在。人類的這些獨特能力似乎還不能僅用大腦中的物質(zhì)來解釋。一個冷峻的物理事實在于,只有人類能把自己安全地送入太空,又安全地返回地球,或者能夠預(yù)測和阻止流星撞擊地球,或者能夠把物質(zhì)的溫度降低到離絕對零度只差十億分之一的程度,或者能夠在銀河星系內(nèi)探測外星生命。

 

然而,地球上沒有任何一個人接近于了解,為了實現(xiàn)上面所提到的那些能力,大腦究竟做了些什么。人為實現(xiàn)這些能力的事業(yè)——“通用人工智能”領(lǐng)域,或者簡稱AGI——自它起步以來的60年間沒有取得實質(zhì)進展。

 

為什么?正如一個不知名的智者曾經(jīng)所說的那樣,“給我們造成麻煩的,并不是我們的無知,而是我們對自己并不了解的事物堅信不疑”(如果你知道這個智者是馬克·吐溫的話,那么你就不會對自己擁有的知識抱有那么堅定的信心了)。我不知道還有哪個重要的知識領(lǐng)域,其主流認知充斥著如此根深蒂固、自我強化的根本錯誤,不管是在整個社會還是在專家當中。人工智能已成為人類最自信的領(lǐng)域之一,認為該領(lǐng)域?qū)⒑芸鞂崿F(xiàn)根本性的突破。

 

盡管有著長時間的失敗歷史,通用人工智能肯定是可以實現(xiàn)的。這是由物理規(guī)律的深層次性質(zhì)所決定的,也即是算法的通用性。算法涵蓋了物理規(guī)律能夠讓物體所做的每件事,而從原則上講,這些事件的任何一個細節(jié)都能通過通用計算機上的某種程序加以模仿,只要我們給予它足夠的時間和記憶。第一個提出這種猜想并探索了其中某些問題的人,是19世紀的數(shù)學家查爾斯·巴貝奇和他的助手阿達·洛芙萊斯伯爵夫人。直到1980年代,當我用量子計算理論證明了算法的通用性時,它仍是一種猜想。

 

巴貝奇所提出的通用性是一條沒有前途的路徑。事實經(jīng)常告訴他,數(shù)學函數(shù)表(比如,對數(shù)和余弦)包含著錯誤。那時,這些數(shù)學函數(shù)表是由一群職員匯編起來,他們被稱為“計算者”,這就是后來計算機這個詞的來源。作為人類,這些計算者是會犯錯的。盡管有精致的糾錯系統(tǒng),但對人來講,校正印刷上的錯誤都是一個極大的噩夢。犯這種錯誤不僅很麻煩,而且代價很大:它甚至會鬧出人命。比如,函數(shù)表被廣泛應(yīng)用于航海。因此,巴貝奇設(shè)計了一種機械計算器,并把它稱之為“差分機”。它被預(yù)裝了一些齒輪,能夠驅(qū)動一臺打印機,從而自動打印函數(shù)表。這就將差錯率降到了可以被忽略的程度,為人類帶來了永久性的便利。

 

不幸的是,巴貝奇的工程管理技能太差,以致于盡管他花掉了自己和英國政府的大量資金,還是沒能把計算機搞出來。然而,他的設(shè)計是可靠的,后來被在倫敦科學博物館工作的工程師多倫·斯瓦德帶領(lǐng)一幫團隊制造了出來。

 

這種認知任務(wù)只有人類才能完成。在已知的宇宙中,沒有任何物種能接近人類的能力,但差分機可以比最有能力的人表現(xiàn)得更好。因此,甚至是在自動計算處于早期歷史的蹣跚階段——在巴貝奇設(shè)想出類似通用人工智能的概念之前——我們就已經(jīng)看到了直到今天仍有爭議的哲學困惑的苗頭:人類計算的能力與差分機的能力之間到底有什么區(qū)別?什么類型的認知任務(wù)是一種物體能夠完成,而另一種物體原則上不能完成的?

 

兩者之間一個直接的差別在于初級步驟(比如,計數(shù)、加、乘以10,等等)的序列,而差分機計算給定函數(shù)所使用的序列并不是根據(jù)人類“計算者”所使用的方法來設(shè)計的。也即是說,兩者使用了不同的算法。就結(jié)果而言,這不是一種根本性的差異:差分機可以用額外的齒輪和杠桿來調(diào)校,從而可以精確模仿人類的計算方式。然而,由于更復(fù)雜的機器增加了故障的數(shù)量,這種調(diào)校沒有達到目的,反而提高了差錯率。類似地,在不改變硬件(生理)、只教授不同計算方法的情況下,人類也能夠模仿差分機方法的每一個細節(jié)——只不過這么做實際上是一種倒退。人類體現(xiàn)不出差分機的主要優(yōu)勢,也即它的準確性,而這種優(yōu)勢取決于硬件,而不是軟件。它只會讓這一艱苦而無趣的工作變得更艱苦、更無趣,而這又可能導致人類犯更多的錯誤,而不是更少的錯誤。

 

對人類而言,計算同樣的表格,結(jié)果卻有差別——不同的差錯率——這顯然是由兩種不同算法的差異所造成的。這一事實讓人產(chǎn)生了異樣的感受,但差分機卻沒有這種感受,因為它沒有感覺。差分機絕無可能體會到無趣,而人類則可以。在諸多認知任務(wù)上,前者都不如后者,這算是其中一例。差分機也無法像巴貝奇那樣知道證明,如果兩種計算方式能被正確使用,它們可以得出一樣的結(jié)果。差分機更不可能擁有類似巴貝奇那樣的心理愿望,希望讓自己惠及航海船員和人類福祉。事實上,它的功能只局限在評估一小部分專門的數(shù)學函數(shù)上(基本上就是計算單一變量的冪級數(shù))。

 

在思考如何才能增加差分機的功能時,巴貝奇首先意識到,差分機運行的編程階段本身應(yīng)該實現(xiàn)自動化:齒輪的初步設(shè)置可以被編碼到穿孔卡片上。然后,他提出了一個劃時代的想法。差分機可以被調(diào)整用于沖壓新的卡片,并存儲這些卡片,以備今后之用,這就是我們今天所說的計算機存儲。如果它能運行很長時間——就像他所設(shè)想的那樣,由蒸汽機提供能量——并且能為它提供不限量的空白卡片,它的功能就會從完成一小類的數(shù)學函數(shù)計算擴大到任何具有計算能力的物理客體能執(zhí)行的所有類型的計算。這就是算法通用性。

 

巴貝奇把這種改進的機器稱為“分析機”。他和洛芙萊斯知道,這種通用性具有革命性的力量,能改進幾乎科學研究和制造程序的每一個方面,也能造福于人類的日常生活。關(guān)于分析機的具體應(yīng)用,他們提出了極富前瞻性的構(gòu)想。他們知道,它可以被用于做代數(shù)運算、下棋、譜曲、處理圖片,等等。與差分機不同,人們可以對它編寫程序,讓它采用人類所使用的數(shù)學函數(shù)計算方法,并且它能夠證明這兩種方法都能給出一樣的結(jié)果,也能做同樣的差錯檢查和校對(比如說,使用具有視覺特征的認知方法)。

 

不過,這種分析機能感受到同樣的無趣嗎?它能感知事物嗎?它想要造福人類嗎(或者造福分析機群體嗎)?它可以不同意程序員對它的編碼嗎?這些問題是巴貝奇和洛芙萊斯回答不了的。他們認為,人類大腦的某些認知功能是超越了計算通用性范疇的。洛芙萊斯寫道,“分析機不會假裝創(chuàng)造了任何事物,它只能做我們知道如何讓它去做的事情。它可以分析事物,但它沒有能力預(yù)測任何分析性的關(guān)系或知識?!?/span>

 

然而,“創(chuàng)造事物”、“做出分析”和“預(yù)測分析性的關(guān)系和知識”都是人類大腦的行為,因此,也可以說是構(gòu)成了大腦的原子的行為。這些行為都是遵從物理規(guī)律的。所以,算法通用性意味著,只要按照正確的程序,一部分析機也能做出人類的這些行為,一個原子接著一個原子,一個步驟接著一個步驟。的確,大腦中的原子能夠用金屬齒輪和杠桿而不是器官材料來模擬——但在當前階段,認為能把這些物質(zhì)生成為獨立的心智實體,還是一件過于遙遠的事情。

 

巴貝奇和洛芙萊斯想把他們對分析機的熱情傳遞給他人,為此,他們做了最大的努力,但最終還是徹底失敗了。在本可能會改變?nèi)祟悮v史的事件中,通用計算機的想法算是其中一個,但這一概念逐漸在人們頭腦中消失了。直到20世紀,當阿蘭·圖靈寫出一系列關(guān)于心智的精巧杰作,才為經(jīng)典計算理論奠定了基礎(chǔ),界定了計算能力的局限性。圖靈也參與到了最早的通用經(jīng)典計算機的設(shè)計之中,并幫助破解了德軍機密,為二戰(zhàn)盟軍的勝利做出了貢獻。

 

圖靈完全理解通用性。在1950年的論文《計算機器與智能》中,他用通用性概念駁斥了他所謂的“洛芙萊斯夫人異議”以及其他合理或不合理的每一種異議。他的結(jié)論是,包括了人類大腦所有獨特功能在內(nèi)——感受、自由意志、意識以及其他——的計算機程序是可以被編寫出來的。

 

這一令人震驚的觀點將學術(shù)圈撕裂為了兩個陣營,一邊堅信通用人工智能是不可能實現(xiàn)的,另一邊則認為它即將來臨。兩邊的看法都是錯誤的。首先,每個陣營都引用了大量理由,從超自然的理由到邏輯混亂的理由,并且剛開始這些理由都擁有極大的影響力。但所有人都犯了一個共同的錯誤:他們根本不理解算法的通用性對于自然世界、尤其是對于人類大腦意味著什么。

 

不過,有一個陣營犯下的基本錯誤對人工智能的停滯不前負有責任。他們錯誤地認為,人類大腦與其他物理系統(tǒng)在功能方面的所有區(qū)別都是根本性的,因此,計算機程序所具有的其他特點都無法被用于實現(xiàn)大腦的具體功能。不可能存在一種編程技術(shù),能夠讓計算機實現(xiàn)大腦的功能。也不可能通過不斷改進計算機程序在執(zhí)行任務(wù)上的表現(xiàn)來做到這一點,無論這種表現(xiàn)能做到多么好的程度。

 

為什么不能?我把處于問題焦點的核心功能性稱為“創(chuàng)造力”:提出新的解釋的能力。比如,假設(shè)你想讓某人為你寫一個計算機程序,將溫度度量標準從攝氏度改成華氏度。即便是差分機也能做到這一點。像分析機這樣的通用計算機就更是可以用多種方法來實現(xiàn)它。為了讓程序員明確具體要實現(xiàn)的功能,你可能會,比如,提供一個很長的清單,上面有你想輸入到程序中的內(nèi)容(比如說,從-89.2+57.8之間的所有數(shù)字,以0.1為單位遞增),以及相應(yīng)的正確的輸出內(nèi)容,于是在每一種情況下,程序都能查找出答案。另一種方法是,你可以編寫一個算法,比如,“除以5,乘以10,加上32,四舍五入到最接近于第10個位置的那個數(shù)字”。關(guān)鍵在于,無論程序如何運行,如果它總能在設(shè)定的溫度范圍內(nèi)正確轉(zhuǎn)換你給它的任一溫度數(shù)字,那你就可以認為它滿足了你的具體要求——成為了“善解人意”的溫度轉(zhuǎn)換器。

 

現(xiàn)在,設(shè)想你要求一個程序有更復(fù)雜的功能:解決理論物理學中的某個難題——比如說,暗物質(zhì)的性質(zhì)——并為之提出一種新的解釋,該解釋既可靠又嚴格,還能符合學術(shù)刊物的出版標準。

 

這種程序就可以被假定為是通用人工智能了(至少達到了這個標準)。但你該如何把這樣一個具體的任務(wù)指定給計算機程序員呢?先不用管它比溫度轉(zhuǎn)換更復(fù)雜這一事實:還有更根本的困難。假設(shè)你給了程序員一張暗物質(zhì)解釋的清單,就像編寫溫度轉(zhuǎn)換程序所做的那樣,而這些解釋的輸出方式是該程序可以接受的。如果稍后該程序確實輸出了那些解釋中的其中一個,那也不能算是滿足了你的要求,因為它沒能提供新的解釋,那些解釋都是已有的解釋:那是你為了寫出編程指引,自己事先提供的一些解釋。因此,在這一案例中,實際上在所有為真正的通用人工智能編程的案例中,如果一個算法能實現(xiàn)它想要實現(xiàn)的功能,那就算成功了。然而,寫出那樣一種算法(不是先有物理學的發(fā)現(xiàn),再把它寫進程序)正是你希望程序員做到的事情?。ㄗg注:作者在這里的意思是,程序員如果能寫出那樣一種算法,他就已經(jīng)解決暗物質(zhì)問題了,而這種難度是可想而知的)

 

傳統(tǒng)意義上,人們對通用人工智能的討論僅僅強調(diào)對程序的測試,而不是強調(diào)如何撰寫編程指引——傳統(tǒng)的程序測試是由圖靈自己提出來的。圖靈測試是指,當人類用某種純粹的文字媒介——以便只考察認知能力對結(jié)果的影響——與程序互動時,人類無法分辨該程序究竟是人類還是機器。但這一測試純粹運用了行為主義方法,并沒有真正回答該程序是否滿足了通用人工智能的標準。該測試也沒能滿足“進化算法”的評判標準:如果不首先知道如何編寫通用人工智能程序,圖靈測試本身是無法實現(xiàn)智能自動化的,因為要對一個程序做出“判斷”,這種判斷本身就需要具備目標能力(target ability)(關(guān)于我認為生物進化如何從一開始就賦予了我們這種能力,參見我的《無窮的開始》一書)。

 

無論如何,通用人工智能絕不可能用純粹的行為主義來定義。在經(jīng)典的“缸中之腦”思想實驗中,當大腦信息輸入和輸出的管道被暫時切斷時,大腦仍能思考、感受、提供解釋——它仍然擁有通用人工智能的所有認知特征。所以,通用人工智能程序的相關(guān)特征不僅僅是由程序的輸入和輸出構(gòu)成的。

 

結(jié)果便是,不像以往任何通過編程而實現(xiàn)的功能,通用人工智能既不能通過編寫程序指引,也不能通過對輸出結(jié)果的測試來實現(xiàn)。它需要哲學上的突破,需要一種新的認識論,從而可以解釋大腦是如何產(chǎn)生解釋性知識的,由此可以在原則上定義哪些算法具有通用人工智能的功能性,哪些算法沒有這樣的功能性,并且也不需要把這些算法當作程序來運行。

 

這種認識論超越了今天的知識。我們對認識論的理解告訴我們,只要沒有哲學上的突破,任何試圖建立通用人工智能的方法都是無效的。不幸的是,我們所理解的認識論大多包含在哲學家卡爾·波普爾的著作中,而它們的重要性被普遍低估和誤解了(甚至——或許尤其——是被哲學家低估和誤解了)。比如,幾乎每個科學家都理所當然地認為,知識是由被證實的真信念所構(gòu)成的,因此,通用人工智能的思維必須包含某些程序,這些程序能夠證實它所提出的理論是否為真,或者是否是可能的,同時拒斥那些假的或不可能的理論。然而,通用人工智能的程序員需要首先知道這些理論來自于哪里。流行的誤解在于,通過假設(shè)“未來會重復(fù)過去”,通用人工智能就能通過所謂的“歸納法”,從反復(fù)出現(xiàn)的經(jīng)驗中“獲得”(或“推斷”,或“概括”)理論。然而,這是不可能做到的。比如,在連續(xù)觀察了數(shù)千次之后,我記住了日歷上年份的前兩個數(shù)字是“19”,而我從來沒觀察到例外的情況,直到有一天,日歷的數(shù)字變成了以“20”開頭。我不會為此感到驚訝,我完全預(yù)計到,還需要經(jīng)過17000年,日歷的數(shù)字才會再次以“19”開頭。如此長的時間間隔,不僅我沒有機會,所有經(jīng)歷過“19xx”年代的人,也沒有機會再次經(jīng)歷以“19”開頭的年份了。

 

我是怎么從連續(xù)的經(jīng)驗?zāi)J健邦A(yù)計”到從“19”到“20”的顯著轉(zhuǎn)變的呢?我又是如何知道接下來會出現(xiàn)一個從來沒有觀察到的進程(17000年的間隔)?因為知識不僅僅來自于對重復(fù)觀察的推測。如果一個人不知道一種現(xiàn)象的理解解釋,就敢提前預(yù)測未來,那么“未來會重復(fù)過去”這一前提就不會是真的。實際上,未來可能在大多數(shù)方面都與過去不同。當然,如果知道了現(xiàn)象的解釋,那些巨大的“變化”在19xx年代的早期就能被預(yù)計到了,因為這背后有著不變的潛在模式或規(guī)律。但解釋總是發(fā)生在預(yù)測之前。如果沒有這樣的解釋,同樣的事情以連續(xù)有序的方式反復(fù)發(fā)生,這一現(xiàn)象就需要得到解釋。

 

所以,為什么通過歸納法獲得理論仍是我們的傳統(tǒng)智慧?當然,出于某些原因,這超出了本文探討的范疇。實際上,傳統(tǒng)智慧也無法擺脫所謂的“歸納難題”,也即是:“為什么會有歸納,它是如何運作的,而且竟然能產(chǎn)生被證實的真信念,盡管歸納既不可能發(fā)生,其所產(chǎn)生的結(jié)論也并不可靠?”由于存在這一難題,每一次反駁(就像波普爾和大衛(wèi)·米勒在1988年的辯論一樣),不僅沒有終結(jié)歸納主義,還導致科學界的主流人士驚嘆于對偉大的“歸納難題”的深度產(chǎn)生了更大的敬畏。

 

在如何看待通用人工智能的問題上,把它看成是一種“歸納難題”,這種看法帶來了嚴重的負面后果,使得通用人工智能問題看起來很容易解決,因為它把思維看成是一個預(yù)測過程,感官經(jīng)驗的未來模式會跟過去的模式一樣。這看上去就像是在預(yù)測——計算機總是在做預(yù)測(一旦它們被給予了數(shù)據(jù)是如何產(chǎn)生出來的理論)。但在現(xiàn)實中,只有很小一部分思維是與預(yù)測有關(guān)的,更不用說我們感官經(jīng)驗的預(yù)測了。我們對于世界的思考不僅僅與物質(zhì)世界有關(guān),還與抽象世界有關(guān),比如,對與錯、美與丑、無窮大與無窮小、因果、虛構(gòu)、恐懼和抱負——以及關(guān)于思考本身。

 

現(xiàn)在,我們要從另一個角度來談?wù)胬?。知識是由對猜想的解釋構(gòu)成的——在所有類型的世界中到底哪些猜想是真實存在的(或者真的應(yīng)該存在,或者可能存在)。即便在硬科學中,這些猜想也是不著邊際的,而且也不需要得到證實。為什么?因為真實的知識盡管顧名思義的確包含了真理,但也幾乎總是包含錯誤。因此,我們所謂知識的真,不是數(shù)學和邏輯意義上的真。思考包括了批評和修正部分為真的猜想,有意發(fā)現(xiàn)和消除錯誤和其中的誤解,而不是僅僅從感官數(shù)據(jù)中產(chǎn)生或證實猜想。因此,試圖創(chuàng)建通用人工智能,讓它做到后一種思考,就像祈禱上帝把創(chuàng)世發(fā)生在火星上并創(chuàng)造生命一樣,是不可能的。

 

當前,有一種最具影響力的歸納法版本被用在了通用人工智能(和科學哲學)上,那就是貝葉斯主義。這個名字取自18世紀數(shù)學家托馬斯·貝葉斯,這對他來講是不公正的、無辜的。該主義認為,心智的工作方式是通過將概率賦予人們的思想,然后用經(jīng)驗來修正那些概率,從而選擇如何行為。當涉及到通用人工智能的價值觀時——與通用人工智能的選擇和意圖有關(guān)的道德觀和美學觀——這種方法是尤其有害的,因為它只賦予了通用人工智能行為主義模式,被“經(jīng)驗”所“獎勵”的價值觀得到“強化”,成為主導行為,而那些被“經(jīng)驗”所“懲罰”的價值觀則被消滅。正如我在前面提到的,行為主義的輸入輸出模式適用于大多數(shù)計算機程序,而不適用于通用人工智能,而且這條路對于通用人工智能來說也走不通。諷刺的是,主流心理學大多拒斥行為主義,認為它是不全面的、不符合人性的,然而計算機科學由于對歸納主義存在著哲學意義上的誤解,仍試圖用行為主義的方式來產(chǎn)生與人類心智一樣的認知能力。

 

此外,盡管前面提到了大量我們給出了科學解釋的現(xiàn)象,但我們給出這種解釋的核心方法——也即是波普爾式的猜想和反駁——有著自己獨立的、統(tǒng)一的邏輯。因此,通用人工智能中的“通用”一詞也需要得到準確理解:計算機程序要么具有波普爾式的不可全知的求真邏輯,因此可以像人類一樣思考任何事物,包括思考自身和思考如何改進自身;要么它就不具有這種邏輯,因此就不是真正意義上的通用人工智能。于是,又出現(xiàn)了另一種毫無希望的通用人工智能方法,也即是,從現(xiàn)有的知識出發(fā),通過編程來執(zhí)行具體的任務(wù)——比如,下棋、執(zhí)行統(tǒng)計分析、搜索數(shù)據(jù)庫——然后試圖改進這些程序,以期這種方法能在無意中產(chǎn)生通用人工智能,就像《終結(jié)者》電影中突然出現(xiàn)“天網(wǎng)”一樣。

 

如今,AI領(lǐng)域加速涌現(xiàn)出大量令人驚嘆的、具有實用價值的應(yīng)用,有些最新的應(yīng)用甚至比預(yù)想的速度出現(xiàn)得更快。AI圈通常歡迎這些技術(shù)上的進展,并認為他們正在接近于實現(xiàn)通用人工智能,但這是一種既不令人驚嘆也不那么有用的看法。這種信心的一個尤為明顯的例子發(fā)生在最近,由IBM開發(fā)的一個名叫沃森(Watson)的搜索引擎擊敗了一個名叫“危險”(Jeopardy)的字謎游戲節(jié)目的最佳選手。美國公共電視臺的系列紀錄片《Nova》稱沃森為“地球上最聰明的機器”,并認為它“用軟件模仿了人類的思考過程”。吊詭的是,這正是它沒能實現(xiàn)的任務(wù)。

 

像玩“危險”游戲這樣的任務(wù)——就像我們今天會為每一個電腦應(yīng)用感到驚嘆一樣——是完全能夠用標準化的、行為主義的方式來完成的。在沃森所給出的答案中,沒有任何一個可以作為新的科學發(fā)現(xiàn)發(fā)表在期刊上。在玩這個游戲時,人類使用創(chuàng)造力來產(chǎn)生潛在的猜想,雖然輸給了機器,但這并不意味著機器已經(jīng)接近了人類的認知能力。正好相反,人類和機器所使用的是兩種完全不同的方法。同理,當一個電腦程序在象棋上擊敗了一個大師時,他們所使用的也是完全不同的算法。象棋大師可以解釋為什么從戰(zhàn)略角度考慮犧牲馬是劃算的,并且能以這個主題寫一本書出來。但機器只能證明犧牲棋子會不會把對方將死,而且它也不能為此寫本書,因為它根本不理解下象棋的意義是什么。解決通用人工智能問題與玩“危險”游戲和下象棋不是一回事。

 

不同于所有其他計算機程序,通用人工智能所涉及的是定性問題,而不是定量問題。類似突然出現(xiàn)“天網(wǎng)”所造成的誤解同樣也對人們看待通用人工智能造成了誤解,認為通用人工智能具有復(fù)雜系統(tǒng)的涌現(xiàn)性質(zhì),或者不斷增強的計算能力最終會導致通用人工智能的產(chǎn)生(就像某人已經(jīng)寫好了一個通用人工智能程序,但花了一年的時間它才說出第一句話)。事實上,大腦的獨特能力要歸咎于它“大規(guī)模的并行處理”能力,或者歸咎于它的神經(jīng)元結(jié)構(gòu)。這兩種原因都不符合算法通用性。在沒有詳盡理解大腦是如何工作的前提下去期待通用人工智能的出現(xiàn),就相當于期待只要把摩天大樓修得足夠高,它就能學會飛起來。

 

1950年,圖靈預(yù)計,到了2000年,“人們可以談?wù)摍C器思考而不覺得有什么怪異之處”。1968年,亞瑟 C.克拉克(Arthur C. Clarke)預(yù)計,2001年可以做到這一點。然而,現(xiàn)在已經(jīng)是2012年,還沒有人在探索通用人工智能方面比圖靈本人做得更好。

 

這一事實并不會讓第一個陣營的人感到驚訝,他們屬于數(shù)量日漸減少的通用人工智能的悲觀派。但對另一個陣營的人(通用人工智能的出現(xiàn)近在咫尺),這一失敗的歷史需要得到解釋——或者至少需要讓這種失敗顯得合理。事實上,他們沒有為失敗的事實感到苦惱,因為他們對通用人工智能能力的更大期待讓他們不屑于為失敗的經(jīng)驗提供合理化的解釋,他們的期待甚至會比以往更甚。

 

“通用人工智能”這一術(shù)語就是一個典型的例子。該領(lǐng)域曾經(jīng)使用“AI”這個術(shù)語——人工智能。但“AI”逐漸被用于描述與通用人工智能不相關(guān)的計算機程序,比如,下象棋、搜索引擎和聊天機器人,直到“通用”(G)這個詞被加入進來,人工智能似乎就變得高大上了。但現(xiàn)實情況是,通用人工智能只是比聊天機器人稍微聰明一點的物種。

 

另一種合理化的解釋是這樣理解“通用”概念的:通用人工智能并沒有那么了不起;現(xiàn)存的軟件已經(jīng)足夠聰明或已經(jīng)變得更聰明,但不是人類的那種聰明,我們賦予它太高的期望是不切實際的,也是文化上的偏見。這一觀點引起了一些爭議,從負面意義上講,它暗合了一直流行的作為非理性主義的文化相對主義;從正面意義上講,它又與如下看法有關(guān):“我們?nèi)祟悶樽约菏莿游镏醵院?,但這種自豪用錯了地方,因為動物也有語言、工具……和自我意識?!?/span>

 

還記得我們曾經(jīng)賦予“天網(wǎng)”以“自我意識”嗎?那是另一種哲學誤解,它本身就足以妨礙任何通向通用人工智能的可行方法?,F(xiàn)實情況是,當今的軟件開發(fā)者只能在行為主義層面讓程序具有“自我意識”——比如,可以使程序通過“鏡子測試”,能讓程序用鏡子來推斷自己的存在——如果程序員想要這么做的話。據(jù)我所知,沒有程序員做過這種事情,也許是因為這是一種很沒有實用價值的能力,也是一種微不足道的能力。

 

也許,與通用人工智能有關(guān)的自我意識之所以沒能得到人們重視,是因為庫爾特·哥德爾的理論以及20世紀出現(xiàn)在形式邏輯上的各種爭議,讓任何類型的自指因其神秘性而獲得了巨大的聲譽。因此,意識也是如此。在這里,我們又碰到了一個含義模糊的術(shù)語問題:“意識”這個詞具有廣泛的含義。在含義譜系的一端,它是一個哲學問題,涉及主觀感受性(qualia),而這正是通用人工智能想具備的能力。在另一端,“意識”僅僅是指,當我們處于麻醉狀態(tài)時,我們失去的那種東西。很多動物都有這類意識。

 

真正的通用人工智能應(yīng)該具有自我意識——因為這是“通用”的應(yīng)有之義:它們能夠意識到每一種深奧而微妙的現(xiàn)象,包括它們自身。但這不意味著能夠通過鏡子測試的猩猩具有人工版本的通用人工智能所具有的“通用智能”特征。事實上,理查德·伯恩(Richard Byrne)對大猩猩行為的卓越研究表明,猩猩能夠從同類那里學會有用的行為,而不需要理解它們的行為目的:這解釋了猩猩的認知方式實際上是行為主義式的。

 

諷刺的是,為通用人工智能提供合理化解釋的那個陣營(通用人工智能已經(jīng)實現(xiàn)了/是微不足道的/存在于猩猩中/是一種文化自負)正好印證了通用人工智能悲觀論陣營的觀點。對于每一種悲觀論點,比如,“你不可能實現(xiàn)通用人工智能,因為你絕不可能將人類靈魂編入程序,因為靈魂是超自然的”,樂觀陣營都會提出反駁,“如果你認為人類認知能力在性質(zhì)上不同于猩猩,你就必須相信存在著超自然的靈魂?!?/span>

 

還有一種對失敗的合理化解釋,認為“任何我們尚不知道如何寫入程序的東西就是人類智能”。這一觀點是由哲學家約翰·塞爾(屬于悲觀派)提出的,他指出,在電腦出現(xiàn)之前,蒸汽機和稍后出現(xiàn)的電信系統(tǒng)也被類比為人類大腦的運作方式。塞爾認為,對通用人工智能的期待基于類似的不恰當?shù)谋扔?,也即是認為心智在“本質(zhì)上”就是一種計算機程序。但那不是一種比喻:算法的通用性是符合已知的物理規(guī)律的。

 

還有一些人,比如數(shù)學家羅杰·彭羅斯,認為大腦使用的是量子計算法,或者甚至是超量子計算法,這些方法依賴于超越了量子理論的尚未知曉的物理定律,這就解釋了為什么現(xiàn)有的計算機無法實現(xiàn)通用人工智能。要解釋為什么我和大多數(shù)量子計算理論的研究人員不認同彭羅斯的觀點,超出了本文的探討范疇(如果你想了解更多的相關(guān)內(nèi)容,可以參閱利特(Litt)等人于2006年發(fā)表在《認知科學》期刊上的論文《大腦是一臺量子計算機嗎?》(‘Is the Brain a Quantum Computer?’))。

 

從一開始,通用人工智能每一方面的含義都指向了人類智能。如果一個程序哪怕只有一種認知能力不符合人類的特征,從定義上講,它就不算是通用人工智能。使用非認知特征(比如,碳基物質(zhì)的構(gòu)成比例)來定義人類也是不恰當?shù)摹5珕栴}在于,創(chuàng)造新的解釋是人們(人類和通用人工智能)獨特的、在道德和智力上具有重要功能的能力,他們是通過猜想、反駁和改變一切事物來實現(xiàn)這種能力的。

 

當前,人類通常是從象征意義而不是從事實意義上來被看待的——為了表達敬意,我們故意將一個實體(一只猩猩、一個胎兒、一家公司)視為一個人,以便實現(xiàn)某些哲學或現(xiàn)實的目標。但這不是一種好的做法。我們不應(yīng)該糾結(jié)于術(shù)語,如果你愿意的話,可以換一種術(shù)語,實際上我們也有其他理由尊重對待不同的實體,讓它們免受傷害,等等。同樣,由客觀標準所定義的人類與其他實體之間的區(qū)別具有極大的道德和實踐重要性,因此也對包括通用人工智能在內(nèi)的文明的運行至關(guān)重要。

 

比如,如果把運用的程序而不是電腦看成是一個人,一旦通用人工智能生物出現(xiàn),這一看法就會產(chǎn)生無法解決的哲學問題,從而引發(fā)實踐爭議和政治爭議。一旦一個通用人工智能程序正在電腦上運行,為了阻止它的運行,電腦就會成為一個謀殺犯(或者至少有可能會被錯誤地囚禁或奴役),就像從身體中剝奪了人的心智一樣。但與人類的身體不同,一個通用人工智能程序可以被一鍵復(fù)制到無數(shù)的電腦上。盡管它們執(zhí)行的仍是相同的步驟(也即是,在它們因為可以做出隨機選擇或經(jīng)歷不同的體驗而各具差異之前),那些程序算是一個人,還是很多個不同的人?它們有一張選票,還是很多張選票?刪除它們中的一個是屬于謀殺,還是輕微傷害?如果有些混蛋程序員,在一臺電腦或者很多臺電腦上,非法地創(chuàng)造了數(shù)十億個不同的通用人工智能生物,又會發(fā)生些什么呢?它們?nèi)匀皇侨?,擁有?quán)利。但它們都有選票嗎?

 

此外,通用人工智能就像任何其他具有創(chuàng)造力的實體一樣,我們必須忘記“程序”這一術(shù)語的現(xiàn)有內(nèi)涵。像對待其他電腦程序一樣對待通用人工智能,會帶來洗腦、奴役和獨裁等現(xiàn)象。對于孩子而言,很殘忍的一點是,不像其他編程行為,為一個正在運行的通用人工智能編寫程序?qū)嶋H上就是在教化人工智能。這會帶來道德和事實爭議。忽視通用人工智能的權(quán)利和人格不僅是邪惡的,還是一種災(zāi)難:有創(chuàng)造力的存在不應(yīng)該永遠處于被奴役的狀態(tài)。

 

有些人很想知道,我們是否應(yīng)該歡迎我們的新機器君王。有些人希望知道我們?nèi)绾尾倏厮鼈兊某绦颍米屗鼈儾恢劣趥θ祟悾ň拖癜_克·阿西莫夫的“機器人學法則”),或者阻止它們獲得這樣一種理論:宇宙應(yīng)該被改造成回形針(就像尼克·博斯特羅姆所想象的那樣)。這些都不是真實存在的問題?,F(xiàn)實生活中,總有個別的人特別有創(chuàng)造力,其產(chǎn)出——經(jīng)濟上的、智識上的或其他方面的——比大多數(shù)人高出數(shù)千倍,但如果這個人把他的能力用于邪惡,其所造成的危害也是巨大的。

 

這些現(xiàn)象與通用人工智能無關(guān)。善與惡的觀念斗爭就像人類歷史一樣古老,無論這些觀念所運行的硬件是什么樣子,這些斗爭都會持續(xù)下去。問題在于,我們想讓智能具有(道德上)的善念,并總能擊敗邪惡的生物智能和人工智能,但我們也會犯錯,我們自己對于“善”的理解也需要持續(xù)不斷的改進。為了取得進步,社會應(yīng)該如何被更好地組織?“奴役所有的智能物”是一種災(zāi)難性的錯誤答案,“奴役所有與我們不同的智能物”也不是一個更好的主意。

 

這意味著,我們必須停止將教化(對于人類或通用人工智能的教化)視為執(zhí)行說明書——運用已有的不能修改的知識,絕對順從已有的價值觀。正如波普爾所寫道的(他的文字是寫于科學發(fā)現(xiàn)的語境下,但它同樣可以應(yīng)用于設(shè)計通用人工智能和教育孩子):“通過復(fù)制說明書,或者通過從觀察中歸納出說明書,或者通過環(huán)境提供說明書,我們是不可能發(fā)現(xiàn)新的知識或新的理論的,因此,也就沒有說明書可言了。相反,我們是使用試錯法來獲取知識的。”也即是說,我們使用的是猜想和反駁。學習必定是新創(chuàng)造的智能物為了自己所做、所控制的事情。

 

我提及所有這些哲學問題,并不是因為我擔心在我們發(fā)展出哲學思想來理解通用人工智能,并將其整合進人類文明之前,它們就已經(jīng)出現(xiàn)了。完全相反,我相信,發(fā)展通用人工智能所面臨的所有問題都是哲學問題,而不是計算機科學或神經(jīng)生理學問題。哲學的進展對于通用人工智能未來的整合至關(guān)重要,也是發(fā)展通用人工智能的先決條件。

 

通用人工智能之所以進展緩慢,是因為我們對它的停滯不前有嚴重的誤解。沒有波普爾的認識論,人們甚至無法知道,為了設(shè)計出通用人工智能,我們應(yīng)該讓它實現(xiàn)哪些具體的功能。波普爾的認識論并非廣為人知,更不用說它沒能得到很好的理解,并被投入到實際應(yīng)用之中。將通用人工智能設(shè)想為一種機器,可以將經(jīng)驗、獎勵和懲罰轉(zhuǎn)化為思想(或者更糟的是,轉(zhuǎn)化為行為),就好比試圖通過平衡身體體液來醫(yī)治傳染疾病一樣無效,因為兩者都基于古老而又嚴重錯誤的世界觀。

 

如果不理解通用人工智能的功能在性質(zhì)上與其他類型的電腦程序完全不同,一個人就是在做無用功。如果一個人沿著程序的方向前進,而程序的“思考”本質(zhì)上無法打破業(yè)已存在的局限,那么這個人的努力就是在遠離人類智能的真正特征:也即是創(chuàng)造力。

 

找出停滯不前的原因并不能提供解決問題的答案。然而,答案并不總是那么難以找到,如果從人類智能的角度來考慮的話。明白了目標能力是人類根本性的能力,會帶來另一種后果,那就是,既然人類擁有這種能力,而猩猩沒有,那么如何實現(xiàn)這種能力的答案就必定就蘊藏在人類DNA和猩猩DNA的細微差別之中。因此,從某個方面來講,我是站在通用人工智能樂觀陣營里的:突破橫亙在我們和通用人工智能之間的障礙,只需要解決我所提到的那個問題就可以了。然而,這可能也是有史以來最難的問題之一。


    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多