小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

《復(fù)雜》作者梅拉妮·米歇爾發(fā)文直指AI四大謬論,探究AI幾度興衰背后的根源

 wangda360 2021-05-13
《復(fù)雜》作者梅拉妮·米歇爾發(fā)文直指AI四大謬論,探究AI幾度興衰背后的根源
人工智能的春天和寒冬交替輪回,本文脫離枯燥的技術(shù)語言,從感性的角度為你揭示AI興衰起伏背后的根本原因。
《復(fù)雜》作者梅拉妮·米歇爾發(fā)文直指AI四大謬論,探究AI幾度興衰背后的根源

論文地址:
https:///pdf/2104.12871.pdf

關(guān)于作者:梅拉妮·米歇爾,圣塔菲研究所客座教授,暢銷書《復(fù)雜》作者,《集異璧》作者侯世達(dá)的學(xué)生。

《復(fù)雜》作者梅拉妮·米歇爾發(fā)文直指AI四大謬論,探究AI幾度興衰背后的根源

回首望來,自從20世紀(jì)50年代的人工智能之春以來,人工智能這個燙手的山芋在人們的嫉妒希冀、幾度失望中經(jīng)歷著一次次的起伏波折,無數(shù)次大公司和科研界的大規(guī)模投資和大規(guī)模撤資見證著這個頗受爭議的領(lǐng)域在起起伏伏中掙扎與蟄伏。

時至今日,雖然我們看到以深度學(xué)習(xí)為首的人工智能領(lǐng)域在諸多領(lǐng)域中大放異彩。但在工業(yè)界和學(xué)術(shù)界中,諸如自動駕駛、 家政機(jī)器人和對話機(jī)器人等等這類需要長期依賴和學(xué)習(xí)的技術(shù)的發(fā)展,卻比人們預(yù)期得要緩慢和艱難得多。

這些領(lǐng)域的困境,以及人工智能幾度興衰的根本原因,其實是人類對于“智能”的定義偏差和復(fù)雜性理解上的限制。因此在本文中,我介紹了人工智能研究人員的四個常見的錯誤認(rèn)知,這些謬誤可能導(dǎo)致我們對于該領(lǐng)域的過度自信和錯誤預(yù)測。最終,我還討論了這些謬誤所帶來的一些開放性問題,包括如何給機(jī)器和算法注入人類常識之類的老生常談的問題。

人工智能的興衰沉浮

自從人工智能領(lǐng)域誕生之初,人們就對它有著盲目的自信和過度的信任。比如在1958年的時候,紐約時報的一篇報道中就介紹了美國海軍對弗蘭克?羅森布拉特的“感知器”模型,也就是深度神經(jīng)網(wǎng)絡(luò)的前身的評價,他們說:海軍今天展示了一臺電子計算機(jī)的原型機(jī),它能夠走路、說話、觀察、書寫和復(fù)制自己,并且能夠意識到自己的存在[9,10]。

緊接著,在官方這樣高調(diào)的宣傳之后,人工智能的先驅(qū)們便心領(lǐng)神會地對人工智能這個領(lǐng)域開啟了無限的吹捧、憧憬和附和。在1960年,赫伯特?西蒙宣布,“機(jī)器將能夠在20年內(nèi)完成一 個人可以做的任何的工作!'[1]。緊接著的第二 年,Claude Shannon也對這一說法進(jìn)行了大膽的預(yù)測:“我十分自信的預(yù)測,在未來的10到15年間,科學(xué)家的實驗室里會出現(xiàn)一些難以置信的成果,它們就跟科幻小說中的機(jī)器人一樣神通廣大。'[11]。同樣的,在幾年之后, Marvin Minsky預(yù)測到:“在一代人的時間之內(nèi),人工智能的問題將得到實質(zhì)性的解決!'[12]

20世紀(jì)60年代和70年代初樂觀的人工智能之春,反映在這些預(yù)測中。但是很快,這些虛假的繁榮就表現(xiàn)出了各種弊端,進(jìn)而導(dǎo)致了人工智能的第一個寒冬。明斯基和帕普特1969年的《感知器》一書[13]表示,羅森布拉特的感知器可解決的問題種類非常有限。

1973年,英國的 Lighthill報告[14]和美國國防部的“美國研究小組分別受到各自政府的委托,來評估人工智能在不久的將來的前景。他們都對人工智能的未來表示消極的情緒。這直接導(dǎo)致了兩國相關(guān)投入的大幅減少,人們對人工智能的熱情進(jìn)而下降。在這些高調(diào)的言論之后,是當(dāng)時人工智能領(lǐng)域巨大的熱度、聲譽和背后像泡沫一樣脆弱的事實。因此,在20世紀(jì)60年代和70年代初過度樂 觀和短暫的“人工智能之春”之后,該領(lǐng)域迎來了第一波寒潮,史稱“人工智能的冬天”。

但是沒經(jīng)過多久,在1980年初,人工智能領(lǐng)域便再次呈現(xiàn)了反彈之勢,這得益于當(dāng)時的幾項成功的應(yīng)用。在工業(yè)領(lǐng)域中,專家系統(tǒng)大行其道 [15];同時日本對其“第五代”項目進(jìn)行了巨額的投資 [16],而該項目旨在將雄心勃勃的人工智能算 法作為其新一代計算機(jī)的核心;此外作為回應(yīng),美國提出了“戰(zhàn)略計算倡議”[17],該倡議為人工智能的基礎(chǔ)進(jìn)展提供了大量的資金;此外,神經(jīng)網(wǎng)絡(luò)領(lǐng)域在此時也有著一系列新的成果出現(xiàn)[18,19]。這些舉措都為該領(lǐng)域帶來了一絲新的振興的曙光。

但是好景不長,到了1980年代后期,這些樂觀的希望都破滅了,這些技術(shù)也都沒有達(dá)到人們希望的足夠智能的樣子。其中,專家系統(tǒng)需要依賴人類來創(chuàng)建規(guī)則,手工地從領(lǐng)域?qū)<业牟僮骱鸵谎砸恍兄锌偨Y(jié)歸納出各種規(guī)則。但是這樣繁瑣復(fù)雜的操作卻只能換來一個脆弱和殘缺的系統(tǒng),它沒有任何的延伸性。在面臨新的情況的時候,它往往無法正確地概括和適應(yīng)。

從本質(zhì)上來說,編寫規(guī)則的領(lǐng)域?qū)<覍嶋H上依賴的是他的經(jīng)驗和自我潛意識中的歸納總結(jié)能力,以及對相關(guān)問題的泛化能力,我們通常稱之為“常識”,但是潛意識的常識卻是我們無法教會算法和代碼的內(nèi)容。此外,在第五代項目和美國戰(zhàn)略計劃倡議下開發(fā)的人工智能方法也遇到了類似的通用性問題。在20世紀(jì)80年代和90年代時,神經(jīng)網(wǎng)絡(luò)方法對于簡單的問題能夠工作的很好,但是當(dāng)其面對復(fù)雜問題的時候卻往往無能為力。

事實上,20世紀(jì)80年代末標(biāo)志著人工智能的一輪新的寒冬的來臨,彼時,人工智能的聲譽受到了極大的影響。當(dāng)我在1990年獲得博士學(xué)位時,業(yè)內(nèi)人士悄悄地告訴我說,盡量別再簡歷中用到“人工智能”這個略帶貶義的詞匯。

在1956年Dartmouth夏季研討會50周年紀(jì)念活動上,人工智能先驅(qū)約翰?麥卡錫(John McCarthy)簡潔地解釋了這個問題:“人工智能比我們想象的要難”[20]。

時間來到20世紀(jì)90年代和21世紀(jì),機(jī)器學(xué)習(xí)的發(fā)展變得十分迅猛:人們開始以數(shù)據(jù)為驅(qū)動提出預(yù)測模型算法。本質(zhì)上來說,這種方法的理論基礎(chǔ)是統(tǒng)計學(xué),而不是神經(jīng)科學(xué)或心理學(xué)。它們旨在執(zhí)行特定的任務(wù),而不是賦予機(jī)器通用的智能。而為了能夠和早已臭名昭著的老一代人工智能方法劃清界限,當(dāng)時的機(jī)器學(xué)習(xí)從業(yè)者通常會將他們的學(xué)科冠以機(jī)器學(xué)習(xí)的名號,以免被拉下水。

然而在2010年左右,深度學(xué)習(xí),這種受到大腦神經(jīng)結(jié)構(gòu)啟發(fā)的多層神經(jīng)網(wǎng)絡(luò)模型開始大行其道。它從大量的數(shù)據(jù)中抽絲剝繭,表現(xiàn)出了驚人的總結(jié)和歸納能力,這使其絕地反殺,一躍上升到了機(jī)器學(xué)習(xí)一哥的位置。其實,深度神經(jīng)網(wǎng)絡(luò)從20世紀(jì)70年代就已經(jīng)存在了,但直到最近,得益于互聯(lián)網(wǎng)上得來的巨大數(shù)據(jù)集、 快速并行計算芯片和訓(xùn)練方法等方面的創(chuàng)新, 深度學(xué)習(xí)便擴(kuò)展到了大量以前未解決的領(lǐng)域之中,并且獲得了不俗的成績。深度神經(jīng)網(wǎng)絡(luò)驅(qū)動了我們在過去十年中幾乎所有的主要進(jìn)步, 包括語音識別、機(jī)器翻譯、聊天機(jī)器人、圖像 識別、游戲和蛋白質(zhì)結(jié)構(gòu)分析等等。

仿佛一夜之間,“人工智能”這個詞匯開始遍布街頭巷尾,人們再次對這些被冠以“一般”、“真 實”和“人類層面”等人工智能詞匯出現(xiàn)了新一輪的樂觀的情緒。

在一項2016年和2018年的面向人工智能研究人員的調(diào)查中,數(shù)據(jù)的中位數(shù)顯示,在被調(diào)查人員中,他們認(rèn)為在2040-2060年間,人工智能算法能夠達(dá)到人類智力水平的可能性為50%。盡管在早期和后期的估計中,結(jié)果存在很大的差異[21, 22],但從這個整體結(jié)果上可見一斑。

因為即使是一些最知名的人工智能專家和企業(yè)家,他們的估計和統(tǒng)計也是十分盲目樂觀的。舉個例子,一本廣泛使用的人工智能教科書的作者Stuart Russell就預(yù)測,“超級智能人工智能可能會發(fā)生在我孩子那代人中”[23];而人工智能公司OpenAl的首席執(zhí)行官Sam Altman 也預(yù)測說,在幾十年內(nèi),計算機(jī)程序幾乎可以 一切事情,包括做出新的科學(xué)發(fā)現(xiàn)、擴(kuò)大我們對萬事萬物的認(rèn)知和概念[24]。谷歌DeepMind的聯(lián)合創(chuàng)始人Shane Legg在2008年的時候就預(yù)測道,“人類水平的人工智能將在2020年代中期實現(xiàn)”[25], Face book首席執(zhí)行官馬克?扎克伯格在2015年宣布,'Facebook未來5到10年的目標(biāo)之一便是讓機(jī)器學(xué)習(xí)在基本上所有方面都超越人類?!?/p>

然而,盡管學(xué)術(shù)和工業(yè)界對人工智能都有著十分樂觀的預(yù)期,但沒過多久,深度學(xué)習(xí)的能力就出現(xiàn)了短板。事實表明,和所有過去的人工智能系統(tǒng)一樣,深度學(xué)習(xí)系統(tǒng)在面對與訓(xùn)練數(shù)據(jù)不同的新的數(shù)據(jù)的時候,可能會表現(xiàn)出必不可免的錯誤和脆弱性,也就是說,它們會出現(xiàn)無法預(yù)測的錯誤。這是因為這些系統(tǒng)容易受到捷徑學(xué)習(xí)(shortcut learning) [27,28]的影響。

捷徑學(xué)習(xí)是指,算法是從訓(xùn)練數(shù)據(jù)中挖掘和統(tǒng)計關(guān)聯(lián)性,從而使算法計算得出正確的答案,但有時會錯誤的學(xué)習(xí)到其中錯誤的關(guān)聯(lián)關(guān)系,而沒有抓住數(shù)據(jù)背后的重點。換句話說,這些算法沒有學(xué)習(xí)到我們試圖教給它們的概念和映射關(guān)系,而是在抄近道,在訓(xùn)練集中找到捷徑來達(dá)到僅在訓(xùn)練集中完成任務(wù)的目的,而這樣的捷徑會導(dǎo)致錯誤的結(jié)果。

事實上,深度學(xué)習(xí)系統(tǒng)往往無法學(xué)習(xí)抽象概念,從而無法使它們能夠?qū)⑺鶎W(xué)到的知識應(yīng)用到新的情況或任務(wù)中[29]。此外,這些系統(tǒng)很容易受到“對抗性擾動(adversarial perturbations)'[30]的攻擊,特別性擾動是指人們對輸入進(jìn)行特定的更改,這些更改要么是不知不覺的,要么是與人類無關(guān)的,但會導(dǎo)致系統(tǒng)犯錯誤。

盡管業(yè)界的研究人員已經(jīng)對深度神經(jīng)網(wǎng)絡(luò)的局限性進(jìn)行了廣泛的研究,但人們對于其脆弱性的根源仍未完全了解。這些網(wǎng)絡(luò)模型往往包含了大量的參數(shù),是一個復(fù)雜的系統(tǒng),因此其背后的決策機(jī)制十分的不透明。然而,這些算法通常對一些對抗性干擾產(chǎn)生錯誤的決策, 也會產(chǎn)生一些人類無法解釋的錯誤,因此,我們可以看出它們實際上并不理解所處理和所輸入的數(shù)據(jù),至少不是人類大腦意義上的“理解”。人工智能領(lǐng)域是否能夠通過增加網(wǎng)絡(luò)層數(shù)、輸入更多的訓(xùn)練數(shù)據(jù)來實現(xiàn)這種真正的理解,或者甚至是為網(wǎng)絡(luò)增加更多關(guān)鍵而基本的因素,才能實現(xiàn)這種“理解”,我們尚未可知。

在撰寫本文時(2021年年中),學(xué)術(shù)界和工業(yè)界又產(chǎn)出了幾種新的深度學(xué)習(xí)方法,它們在刷新個大榜單記錄的同時,再次在人工智能社區(qū)中產(chǎn)生了相當(dāng)大的樂觀情緒。

一些最熱門的新領(lǐng)域是使用自監(jiān)督學(xué)習(xí)[31]、元學(xué)習(xí) [32]和深度強化學(xué)習(xí)[33]的Transformer 結(jié)構(gòu);這里面的每一個方向都被認(rèn)為是朝著更一般、更類似人類的人工智能目標(biāo)的重要進(jìn)步。雖然這些Transforme和其他的創(chuàng)新已經(jīng)顯示出一些希望,但人工智能的興衰循環(huán)很可能還會繼續(xù)。該領(lǐng)域在相對狹窄的方向上不斷進(jìn)步,但是否以及何時才能夠讓機(jī)器達(dá)到和人類智力相當(dāng)?shù)闹悄芩?,我們只能拭目以待?/p>

在接下來的章節(jié)中,我將討論人們對于算法達(dá)到人類水平的人工智能的可能時間的預(yù)測, 在某些方面反映了我們自己的偏見,以及人類對于智能本質(zhì)理解的缺乏。特別是,我描述了我們對人工智能的思考中的四個謬論(Fallacy),這些謬論對我來說似乎是最核心的。雖然這些謬論在人工智能界可能人盡皆知,但專家們做出的許多假設(shè)仍然伴隨著這些謬論的影子,并讓我們對 “真正”智能機(jī)器的近期前景產(chǎn)生了錯誤的信心。

謬論1:各個狹義的智能小進(jìn)步都是通往最終人工智能路上的基石

我們可以為特定的任務(wù)設(shè)計專門的人工智能程序,它雖然不像人類一樣通用和聰明,但是能夠完美的處理一些特定的任務(wù)。這些特定的人工智能往往被視為邁向更通用的人工智能的“第一步”。比如,IBM那臺會下棋的電腦“深藍(lán)”被譽為人工智能革命的第一步[34]。IBM更是將其沃森系統(tǒng)夸贊為“邁向認(rèn)知系統(tǒng)的第一步,一個新的計算時代的標(biāo)志”[35]。OpenAI的GPT-3語言生成器也被稱為“邁向通用智能的一大步”[36]。

但事實上,如果人們看到一臺機(jī)器完成了些很驚人的任務(wù),盡管是在一個狹窄的區(qū)域,他們通常也會認(rèn)為這個領(lǐng)域離通用人工智能還有十分遙遠(yuǎn)的距離。哲學(xué)家日Hubert Dreyfus(因引用Yehoshua Bar-Hillell創(chuàng)造的一個術(shù)語)將這種 認(rèn)知稱為“第一步謬論”。正如Dreyfus所描述的那樣,“第一步謬論是指,我們總是認(rèn)為,自從我們在計算機(jī)智能方面的第一次工作以來,我們就一直在朝著通用人工智能緩慢前進(jìn),并最終實現(xiàn)終極態(tài)的人工智能。我們還盲目的相信,我們對代碼和程序的任何改進(jìn),無論多么微不足道,都算作是一種人工智能的進(jìn)步。”Dreyfus引用了他的工程師哥哥Stuart Dreyfus的一句話調(diào)侃道:“這就像是說第一只爬上樹的猴子正在朝著登陸月球前進(jìn)一樣荒誕不經(jīng)”[37]。

Dreyfus和許多前輩與后輩的人工智能專家一樣持有類似的觀點,他說,在人工智能連續(xù)進(jìn)步的假設(shè)中,“意想不到的障礙”一直是常識問題。我將在最后一節(jié)中更多地談?wù)撨@個常識障礙。

謬論2:容易的任務(wù)很容易做,難辦的任務(wù)很困難

雖然John McCarthy哀嘆說“人工智能比我們想象的要難”,但Marvin Minsky解釋說,這是因為“容易的事情很難”[38]。也就是說,我們?nèi)祟愒跊]有太多思考的情況下所做的事情,比如眺望世界,理解我們所看到的,進(jìn)行對話,走在擁擠的人行道上而不撞到任何人等等,這些事情對機(jī)器來說是最困難的挑戰(zhàn)。

而相反,讓機(jī)器做對人類來說非常困難的事情往往更容易。例如,解決復(fù)雜的數(shù)學(xué)問題,掌握國際象棋和圍棋等游戲,以及在數(shù)百種語言之間互相翻譯……這些對機(jī)器來說都相對容易。這是一種被稱為“莫拉韋茨悖論”(Moravec's paradox)的問題,它以機(jī)器人學(xué)家Hans Moravec的名字來命名,他寫道:“讓計算機(jī)在智力測驗或跳棋時表現(xiàn)出成人水平的表現(xiàn)相對容易,但在感知和行動能力方面,計算機(jī)窮極一生很可能也達(dá)到一歲孩子的水平''。

這個謬論從人工智能領(lǐng)域的萌芽之初便影響了人們對人工智能技術(shù)的思考。人工智能先驅(qū) Herbert Simon說:“人們認(rèn)知中所有感興趣的事情發(fā)生在100毫秒以上,而100ms其實就是你認(rèn)出母親所需要的時間”[40]。Simon是說,要理解認(rèn)知,我們不必?fù)?dān)心無意識的感知過程。這一假設(shè)反映在大多數(shù)象征性的人工智能傳統(tǒng)中,它側(cè)重于對已經(jīng)感知到的輸入的推理過程。

在過去的幾十年里,符號派的人工智能方法在學(xué)術(shù)界失去了青睞,學(xué)術(shù)界主要由深度學(xué)習(xí)主導(dǎo)。深度學(xué)習(xí)確實解決了感知的問題。然而, 這一謬論背后的假設(shè),仍然出現(xiàn)在很多近期發(fā)表的人工智能的言論當(dāng)中。例如,在2016年的一篇文章中,深度學(xué)習(xí)先驅(qū)Andrew Ng引用了 Simon的假設(shè),大大低估了無意識感知和思維的復(fù)雜性:“如果一個典型的人能夠用不到一秒鐘的思維完成一項腦力任務(wù),我們現(xiàn)在或不久的將來都可以使用人工智來將其自動化”[41]。

而更微妙的是,谷歌DeepMind的研究人員在談到AlphaGo的勝利時,將圍棋游戲描述為“最具挑戰(zhàn)性的領(lǐng)域”之一[42]。這個挑戰(zhàn)是對誰而言?也許對人類來說是如此。但正如心理學(xué)家 Gary Marcus所指出的,有些領(lǐng)域,包括游戲,雖然對人類來說很容易,但對比而言,這些任務(wù)對于人工智能程序來說,比如Alpha Go,會更具挑戰(zhàn)性。一個例子是猜謎游戲,它既需要表演技能、語言技能,更需要復(fù)雜的思維理論[43],這些能力遠(yuǎn)遠(yuǎn)超出了人工智能今天所能完成的事情。

人工智能比我們想象的要難,因為我們在很大程度上沒有意識到自己思維過程的復(fù)雜性。Hans Moravec這樣解釋了他的悖論:“人類經(jīng)歷了上億年的進(jìn)化,大腦中深深烙印著一些原始的生存技能,其中包含了巨大、高度進(jìn)化的感官和運動機(jī)制,這些都是人類關(guān)于世界本質(zhì)以及如何在其中生存的上億年的經(jīng)驗。我相信,執(zhí)行這種需要深思熟慮的思考過程是人類最外化的表現(xiàn),而其背后深層次和有效的,則是源于這種更古老和更強大的感知和運動能力的本能反應(yīng)。而這種支持通常是無意識的。換句話說,因為我們祖先的強大進(jìn)化,我們每個人都是感性理解、人情世故和運動領(lǐng)域的杰出運動員,我們實在是太優(yōu)秀了,以至于我們在面對實際上十分困難的任務(wù)時還能駕輕就熟”[44]。

簡而言之,Marvin Minsky指出,總的來說,其實我們不知道自己的大腦最擅長什么[45]。

謬論3:助記法的陷阱

“助記法陷阱”(wishful mnemonic)一詞是計算機(jī)科學(xué)家Drew McDermott在1976年對人工智能的批評中所提出的,他說:

“人工智能程序頭腦簡單,其主要根源之一便是它會濫用助記符,比如它會用“理解”或“目標(biāo)”來指代程序和數(shù)據(jù)結(jié)構(gòu),從而在程序運行時表現(xiàn)出理解的樣子,但其實只是輸出了“理解”的字樣。這是很荒誕的,因為這就像是一個工程師把它的主循環(huán)稱為“理解”,那他就算技藝再高超,能力再超群,也沒辦法真正理解數(shù)據(jù)背后的意義,更沒辦法用算法逼近真正的目標(biāo)。他可能會誤導(dǎo)很多人,其中首當(dāng)其沖而不自知的就是它自己。實際上,他應(yīng)該將這個主循環(huán)稱為“G0034”之類的沒有實際意義的代號,看看它是否能說服自己或其他人,讓他們相信G0034實現(xiàn)或理解了某些部分。一旦你看到這一點,你就會在腦子里浮現(xiàn)出種種研究人員會犯的助記法陷阱的例子[46]?!?/p>

可悲的是,時至十年后的今天,人工智能工作中還是助記符陷阱的重災(zāi)區(qū)。其中最嚴(yán)重的泥淖之地便是術(shù)語,與人類智能相關(guān)的術(shù)語。這些術(shù)語被用來描述人工智能程序的行為,也用來評估模型的效果和性能。神經(jīng)網(wǎng)絡(luò)的靈感來自于人類大腦,但本質(zhì)上來說他們之間存在很大的差異。機(jī)器學(xué)習(xí)或深度學(xué)習(xí)方法背后的學(xué)習(xí)機(jī)制,和人類(或者動物)的學(xué)習(xí)機(jī)制存在著天壤之別。事實上,如果一臺機(jī)器學(xué)到了人類意義上的東西,我們希望他能夠在不同的環(huán)境中運用這些知識。但是,事實證明,情況往往并非如此。在機(jī)器學(xué)習(xí)中,有一個專門的子領(lǐng)域叫做遷移學(xué)習(xí),它關(guān)注如何讓算法能夠?qū)⑺麄冊谀硞€領(lǐng)域中學(xué)習(xí)到的東西遷移到新的場景中。而這是人類學(xué)習(xí)的基礎(chǔ),或者說是與生俱來的能力。顯然,機(jī)器學(xué)習(xí)目前無法做到這點——它還不是真正的智能。

事實上,我們在討論或者評價機(jī)器學(xué)習(xí)能力的方式,也影響了我們對這些能力的客觀評價,從而無法為它給出一個合適的位置。具體來說,IBM的一位高管曾經(jīng)在無意之中談到McDermott的言論,他說“沃森可以在幾秒內(nèi)閱讀世界上所有的醫(yī)療保健文本”[47]。而IBM的網(wǎng)站則聲稱沃森項目能夠“理解其中語言的上下文和細(xì)微差別”[48]。此外,DeepMind的聯(lián)合創(chuàng)始人Demis Hassabis告訴我們,“AlphaGo的目標(biāo)是擊敗世界上最好的人類玩家,而不僅僅是模仿他們”[49]。ALphaGo的主要研究人員David Silver這樣描述了一個現(xiàn)象:“我們在比賽的過程中總是去問AlphaGo,問它覺得它在比賽的過程中表現(xiàn)如何。,但是直到比賽快結(jié)束的時候,AlphaGo才認(rèn)為它將獲勝[50]?!?/p>

人們可能會爭辯說,類似于助記法這樣的方法只是方便機(jī)器速記而已:IBM的科學(xué)家知道沃森并不能像人類那樣閱讀或理解;DeepMind的科學(xué)家知道AlphaGo沒有人類那樣的目標(biāo)或者想法,也就沒有類似人類的“游戲”或者“勝利”這樣的概念。然而,這種速記可能會誤導(dǎo)那些試圖理解結(jié)果的吃瓜群眾,從而連帶著影響媒體對這些結(jié)果的報道。而且這還會潛移默化地改變?nèi)祟悓τ贏I系統(tǒng)的思考方式,即使是人工智能專家也會受此影響,從而對AI系統(tǒng)與人類智能的相似程度作出錯誤的判斷。

McDermott的“助記法的陷阱”指的是我們用來描述人工智能項目的術(shù)語,但研究界也適用助記法的陷阱來命名人工智能的評價方法,評價我們測試人工智能技能的優(yōu)劣程度。

例如,以下是人工智能子領(lǐng)域中最常用的一些評價方法。在“自然語言處理NLP”領(lǐng)域中,“斯坦福問答數(shù)據(jù)集[51]“、”RACE閱讀理解數(shù)據(jù)集[52]'和“通用語言理解評估[53]”這三個常用的數(shù)據(jù)集出現(xiàn)的頻率很高。

在所有這些評價標(biāo)準(zhǔn)中,最好的機(jī)器算法的性能已經(jīng)超過了人類(Amazon Mechanical Turk workers)。這就引來了一些媒體的過度宣傳,如“新的人工智能模型在回答問題時超越了人類的表現(xiàn)”[54],“計算機(jī)在閱讀理解方面比人類好[55]',以及“微軟的人工智能模型在自然語言理解方面超越了人類”[56]。

考慮到這些評價標(biāo)準(zhǔn)的名稱,人們得出這樣的結(jié)論并不奇怪。但問題是,這些基礎(chǔ)實際上并不能衡量回答問題、閱讀理解或者自然語言理解的一半能力。這些測試僅僅能夠從某些方面來對人工智能的性能進(jìn)行評價;此外,這些基準(zhǔn)中的許多項目是允許機(jī)器學(xué)習(xí)進(jìn)行捷徑學(xué)習(xí)的。正如前文所述,機(jī)器可以利用這些統(tǒng)計相關(guān)性的捷徑在訓(xùn)練和測試數(shù)據(jù)集中實現(xiàn)高性能、而無需剖析挖掘和學(xué)習(xí)到理解任務(wù)真正需要的實際技能的[57,58]。雖然機(jī)器在這些特定標(biāo)準(zhǔn)上的表現(xiàn)可以超過人類,但人工智能系統(tǒng)仍遠(yuǎn)未達(dá)到人們從基準(zhǔn)測試集中所看到的那樣神通廣大。

謬論四:智能都在大腦中

智能是可以與身體分離的東西,它既可以作為一種非物質(zhì)的信息存在,也可以完全封裝在大腦中。這種觀點在哲學(xué)和認(rèn)知科學(xué)中有著悠久的歷史。

在20世紀(jì)中葉的心理學(xué)領(lǐng)域中出現(xiàn)了所謂的“心里信息處理模型”。這個模型將大腦視為一種計算機(jī),它有輸入、存儲、處理和輸出信息的能力。在這種理論中,除了在輸入(感知)和輸出(行為)的階段之外,四肢和身體幾乎沒有實際的作用。在這種觀點下,認(rèn)知完全發(fā)生在大腦中,理論上,認(rèn)知與身體的其他部分是分開、獨立的。這種觀點的一個極端推論是,在未來,我們能夠?qū)⑽覀兊拇竽X“上傳”到一臺計算機(jī)中,也能夠?qū)⑷祟惖恼J(rèn)知和意識上傳到計算機(jī)當(dāng)中[59]。

“智能在原則上是非實體的”這種假設(shè)在歷史上幾乎所有關(guān)于人工智能的工作中都出現(xiàn)過。其中,早起人工智能研究中最具影響力的想法之一是Newell 和Simon的“物理符號系統(tǒng)假說PSSH“,該假說指出:物理符號系統(tǒng)具有一般智能行動必要和充分的手段[60]。其中”物理符號系統(tǒng)“指的是非常類似數(shù)字計算機(jī)的東西。PSSH假設(shè),通用智能可以在數(shù)字計算機(jī)中實現(xiàn),其中不包括大腦或身體的任何非符號的過程。(關(guān)于符號過程與此符號過程的討論,請參見[61]Hofstadter的Waking up from the Bollen Dream)。

Newell和Simon的PSSH是人工智能符號派大營的理論基礎(chǔ),在20世紀(jì)90年代和21世紀(jì)統(tǒng)計和神經(jīng)啟發(fā)的機(jī)器學(xué)習(xí)興起之前,該領(lǐng)域一直是人工智能領(lǐng)域的領(lǐng)頭羊。然而,后一種非符號性的方法也認(rèn)為身體與智力是沒有任何關(guān)聯(lián)的。但是,從20世紀(jì)80年代的連接論,再到今天大行其道的深度神經(jīng)網(wǎng)絡(luò),這類神經(jīng)元啟發(fā)的方法通常都會假設(shè)智力僅僅來源于大腦的結(jié)構(gòu)和動態(tài)。今天的深度學(xué)習(xí)網(wǎng)絡(luò)類似于諺語中的brain-in-a-vat:它被動地從外界接收數(shù)據(jù),輸出行為指令,而不在世界中與任何類型的物體主動互動。當(dāng)然,機(jī)器人和自動駕駛的不同之處在于它們在世界上有物理的實體存在,但到目前為止,它們的物理交互方式,對它們“智能“反饋的貢獻(xiàn)是相當(dāng)有限的。

智能僅存在于大腦的這種假設(shè)導(dǎo)致了人們的猜測,要實現(xiàn)人類級別的人工智能,我們只需要擴(kuò)大機(jī)器的計算存儲單元,以匹配大腦的“計算能力“,然后為這種大腦匹配的“硬件”開發(fā)合適的“軟件”。例如,一位哲學(xué)家曾經(jīng)寫了一份報告,結(jié)論是,他認(rèn)為計算機(jī)需要10^15FLOP/s的吞吐量才有可能來執(zhí)行和人腦類似的任務(wù)(但是考慮到實際情況和可行性,這可能有點難)[62]。換句話說,我們不要無腦的肌肉棒子或者無軀干的思想幽靈!

頂尖的人工智能研究人員也同意這一觀點,也就是需要擴(kuò)大硬件的計算能力以匹配大腦的結(jié)構(gòu),從而實現(xiàn)人類級別的人工智能。例如,深度學(xué)習(xí)先驅(qū)Geoffrey Hinton預(yù)測道,“要在人類層面理解語言,我們可能需要人類層面的大腦資源,我們的大腦中有數(shù)以億計的神經(jīng)元連接。但迄今為止,我們建立的最大的神經(jīng)網(wǎng)絡(luò)僅有十億個連接。所以實際上我們還差了好幾個量級,但我相信硬件人員會解決這些問題的。其他人則預(yù)測,“硬件終有一天會滿足我們的需求,實現(xiàn)人類級別的運算速度和存儲容量,而這種硬件最有可能就是量子計算機(jī)[64]”

然而,越來越多的研究人員則開始質(zhì)疑“人工智能僅存在于大腦”這一模型的基礎(chǔ),希望從另一個角度理解和創(chuàng)造人工智能。計算機(jī)科學(xué)家Rod Brooks在他所著的“計算機(jī)隱喻的死胡同(The cul de sac of the computational metaphor)”中認(rèn)為,“我們之所以被困在這個死胡同里這么久,是因為摩爾定律一直在給我們溫水煮青蛙,它總是做出正向但是微小的提升,我們一直在想,哦,人類一直在進(jìn)步,在進(jìn)步,在進(jìn)步。但是我們沒有真正想過另辟蹊徑來實現(xiàn)更大更快的突破?!盵65]。

事實上,幾十年來,許多認(rèn)知科學(xué)家一直在主張讓人們關(guān)注身體在所有認(rèn)知活動中的中心地位。其中一位杰出的科學(xué)家,心理學(xué)家Mark Johnson在Embodied Congnition項目中寫道,(Embodied Congnition項目是一個在20世紀(jì)70年代中期開展的關(guān)于具身認(rèn)知的研究項目),該項目“開始以我們的大腦和身體在我們所經(jīng)歷、思考和執(zhí)行的一切的核心作用提供證據(jù)”[66]。心理學(xué)家Rebecca Fincher-Kiefer這樣描述了具身認(rèn)知范式:具身認(rèn)知意味著概念知識的表征依賴于身體:它是多模態(tài)的。它不是非模態(tài)的、符號性或者抽象的。這個理論表明,我們的思想是建立在一些基礎(chǔ)上的,或者與感知、行動和情感密不可分的聯(lián)系在一起的,我們的大腦和身體一起工作,以獲得感知[67]'。

很多學(xué)科也都為這一理論提供了諸多證據(jù)。例如,神經(jīng)科學(xué)的研究表明,控制認(rèn)知的神經(jīng)結(jié)構(gòu),與控制感官和運動系統(tǒng)的神經(jīng)結(jié)構(gòu)密切相關(guān),抽象思維利用了基于身體的神經(jīng)“地圖”[68]。正如神經(jīng)科學(xué)家唐·塔克所指出的,“沒有任何大腦部分可以進(jìn)行非實體感知”[69]。認(rèn)知心理學(xué)和語言學(xué)的結(jié)果表明,我們的許多抽象概念,幾乎都是基于物理的、基于自身的內(nèi)部模型的[70],還有一部分是由日常語言中發(fā)現(xiàn)的基于身體的隱喻系統(tǒng)所揭示的[71]。

其他幾個學(xué)科,比如發(fā)展心理學(xué),也提出了具身認(rèn)知的證據(jù)。然而,人工智能的研究大多忽略了這些結(jié)果,盡管有一小群研究人員在被稱為“具身人工智能”、“發(fā)展機(jī)器人學(xué)”、“基礎(chǔ)語言理解”等的子領(lǐng)域探索這些真理。

與具身認(rèn)知理論相關(guān)的是,伴隨著我們深層社會生活的情感和“非理性”的偏見,通常會被認(rèn)為與智力是分開的,或者阻礙理性的。但實際上它是使智力成為可能的關(guān)鍵。人工智能通常被認(rèn)為是針對一種“純粹的智力”,一種獨立于如飲食和睡眠等情緒、非理性和生存需求的存在。這種對人工智能的定義在某些方面局限了它的發(fā)展,這種純粹的理性智能可能性的假設(shè)是有失偏頗的,很有可能會導(dǎo)致人類對未來“超級智能機(jī)器人”的恐慌。

例如,哲學(xué)家Nick Bostrom斷言,一個系統(tǒng)的智力及其目標(biāo)是正交的。他認(rèn)為,“任何水平的智力都可以與任何最終目標(biāo)結(jié)合起來”[72]。例如,Bostrom想象了一個超級人工智能系統(tǒng),其唯一目標(biāo)是生產(chǎn)回形針。這個想象出來的超級機(jī)器人發(fā)明了生產(chǎn)回形針的巧妙的方法,但這個方法消耗了地球上的所有的資源。

人工智能研究員Stuart Russell同意Bostrom關(guān)于智能和目標(biāo)的正交性的觀點?!昂苋菀紫胂?,一個通用的人工智能系統(tǒng)能夠或多或少地賦予某個任務(wù)目標(biāo),包括最大限度地增加回形針的數(shù)量,或者求取圓周率小數(shù)點后的若干若干位的數(shù)字[73]?!癛ussel對此十分擔(dān)心,因為如果我們不加任何限制地讓這種超級智能體來解決問題時,可能會導(dǎo)致很多不可預(yù)測的后果:“如果一個超級智能的氣候控制系統(tǒng)想要解決全球變暖,降低二氧化碳,但是它發(fā)現(xiàn)其中最行之有效的方法是將二氧化碳的排放量降低到第二次工業(yè)革命前的水平。而達(dá)到這個目的的唯一路徑就是將人口減少到零,那它會怎樣做呢?(比滅霸還狠,不對……奧、奧創(chuàng)?)”如果我們把錯誤的目標(biāo)輸入人工智能機(jī)器,而它比我們更聰明,那局面很可能就不可控了[74]。

上文中Bostrom和Russel提出的思想實驗有著一系列的假設(shè),它們假設(shè)人工智能系統(tǒng)是“超級智能”的,是沒有任何基本的人類常識的,同時它擁有完美的計算機(jī)硬件驚人的運算速度、精度和可編程性。但這些關(guān)于超級人工智能的假設(shè),在本質(zhì)上則會受到智能本質(zhì)缺陷性的困擾。

在我們的心理學(xué)或神經(jīng)科學(xué)知識中,沒有任何東西能夠在沒有情感、沒有文化基礎(chǔ)也沒有人類對于事物的知識管理體系的前提下,達(dá)到“純粹的理性”。相反,我們從具身認(rèn)知的研究中學(xué)到的是,人類的智力似乎是一個由各種錯綜復(fù)雜的、緊密相連的屬性所組成的復(fù)雜集成系統(tǒng),其中包括情感、欲望、強烈的自我意識和自主意識,以及對世界的常識性理解。

目前來說,我們還不清楚這些屬性是否可以分開。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多