小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

Meta AI首席科學(xué)家楊立昆最新采訪:末世論是無(wú)稽之談

 烏鴉智能說(shuō) 2024-03-13 發(fā)布于北京

本文編譯自播客節(jié)目Lex Fridman Podcast。Yann LeCun(楊立昆)是Meta公司的首席人工智能科學(xué)家,紐約大學(xué)教授。著名的法裔美國(guó)計(jì)算機(jī)科學(xué)家和圖靈獎(jiǎng)獲得者,因其在機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺(jué)和人工智能領(lǐng)域的重大貢獻(xiàn)而聞名。

在與Lex Fridman的對(duì)話中,Yann LeCun強(qiáng)調(diào)了開(kāi)源人工智能的重要性,認(rèn)為開(kāi)源是減少AI偏見(jiàn)、促進(jìn)技術(shù)多樣性和社會(huì)民主化的關(guān)鍵。

對(duì)于熱炒的AI末世論,Yann LeCun進(jìn)行了反駁,認(rèn)為AI系統(tǒng)很難擁毀滅人類(lèi)的智力。在升級(jí)AI性能的同時(shí),人類(lèi)也會(huì)設(shè)計(jì)各種各樣制約AI的機(jī)器倫理準(zhǔn)則,防止AI走向人類(lèi)的對(duì)立面。從生物學(xué)上來(lái)說(shuō),AI不是地球上的物種,也不具備社會(huì)性的主體,因此不用遵從達(dá)爾文“物競(jìng)天擇,適者生存”的叢林法則。

盡管各國(guó)政府紛紛開(kāi)展AI技術(shù)競(jìng)賽,但在Yann LeCun看來(lái),政府將不會(huì)主導(dǎo)AI產(chǎn)業(yè)的發(fā)展。最后,Yann LeCun還展望了AI在增強(qiáng)人類(lèi)智力、改善生活質(zhì)量以及推動(dòng)社會(huì)進(jìn)步方面的潛力。

目錄:

01 只有開(kāi)源才能消除LLM的潛在偏見(jiàn)

02 開(kāi)源,會(huì)損害公司的利益嗎?

03 設(shè)計(jì)倫理原則,監(jiān)管AI生成良性?xún)?nèi)容

04 LLAMA3:基于Jepa視頻訓(xùn)練的開(kāi)源模型

05 AI末世論:好萊塢電影式的無(wú)稽之談

06 Humanoid robots:人形機(jī)器人的興起

07 分層規(guī)劃,AI走向人類(lèi)智能的必經(jīng)之處

08 AI將增強(qiáng)人類(lèi)智能,促進(jìn)社會(huì)福祉

/ 01 / 只有開(kāi)源才能消除LLM的潛在偏見(jiàn)

Lex Fridman:現(xiàn)在很多人對(duì)最新發(fā)布的谷歌Gemini1.5版本持有批判意見(jiàn),說(shuō)谷歌正在喚醒AI。雖然這個(gè)詞聽(tīng)起來(lái)比較消極,但這里確實(shí)有一些荒謬的事情,比如AI可能會(huì)編纂歷史,可能會(huì)生成喬治華盛頓的黑人圖像(帶有一定種族歧視色彩)。在這種情況下,所有人都開(kāi)始問(wèn)大語(yǔ)言模型是如何被設(shè)計(jì)的,是否經(jīng)過(guò)了嚴(yán)格的審查?你在twitter上說(shuō),開(kāi)源才是答案,你能解釋一下是為什么嗎?

Yann Lecun:現(xiàn)在人們對(duì)AI模型存在一些偏見(jiàn),這些偏見(jiàn)來(lái)源于大模型訓(xùn)練數(shù)據(jù)組的分配,這些數(shù)據(jù)組暗含一些人類(lèi)社會(huì)固有的針對(duì)少數(shù)群體的歧視。

但這后面有兩個(gè)更重要的問(wèn)題,創(chuàng)建一個(gè)毫無(wú)偏見(jiàn)的AI系統(tǒng)具有現(xiàn)實(shí)可能性嗎?絕無(wú)可能。盡管目前我們面臨一些技術(shù)瓶頸,但核心并不在技術(shù),而是人類(lèi)社會(huì)本身就存在偏見(jiàn),這種偏見(jiàn)來(lái)自于不同人對(duì)于事情的不同看法,并逐漸固化成人們的一種認(rèn)知。由于每個(gè)人對(duì)世界看法的不同,因此設(shè)計(jì)一個(gè)沒(méi)有偏見(jiàn)的AI程序毫無(wú)可能。

但這種觀點(diǎn)的多元化也并非毫無(wú)益處。在新聞?lì)I(lǐng)域,人們應(yīng)當(dāng)有自由發(fā)表言論的權(quán)利。在科學(xué)領(lǐng)域,人們都需要辯論不同的觀點(diǎn),這些差異化的觀點(diǎn)推動(dòng)科學(xué)事業(yè)進(jìn)步,最終得到學(xué)界內(nèi)部的共識(shí)。

未來(lái),人工智能系統(tǒng)會(huì)成為人類(lèi)與數(shù)字世界互動(dòng)的重要渠道,也許你只要問(wèn)它問(wèn)題,它就會(huì)給你想要的答案。當(dāng)處于這樣的環(huán)境下,我們不能讓這些系統(tǒng)掌握在少數(shù)人手中。

現(xiàn)在訓(xùn)練一個(gè)大模型難度很大,只有少數(shù)公司有能力做到。但在未來(lái),如果系統(tǒng)是開(kāi)源的,每個(gè)人都可以使用并優(yōu)化模型,我們將得到一個(gè)兼具多樣性和專(zhuān)業(yè)性的人工智能系統(tǒng)。

有了開(kāi)源模型,你不僅可以接觸到多樣化的政治觀點(diǎn),也可以認(rèn)識(shí)到豐富的語(yǔ)言、文化、價(jià)值觀念甚至技術(shù)手段,甚至讓行業(yè)內(nèi)的公司來(lái)優(yōu)化這些開(kāi)源系統(tǒng)的垂直應(yīng)用軟件。

比如,出版商想要設(shè)計(jì)一個(gè)系統(tǒng),顧客可以向這個(gè)系統(tǒng)咨詢(xún)關(guān)于任意一本書(shū)的內(nèi)容,那么就需要把所有的書(shū)籍版權(quán)信息給大模型訓(xùn)練。這是許多公司夢(mèng)寐以求的東西,不僅僅是針對(duì)員工,更是從客戶(hù)的視角出發(fā)。所以,為了創(chuàng)建一個(gè)偏見(jiàn)較低的人工智能行業(yè),唯一方式就是設(shè)計(jì)一個(gè)任一群體都可以建立專(zhuān)門(mén)系統(tǒng)的開(kāi)源模型平臺(tái)。大多數(shù)AI系統(tǒng)都會(huì)建立在開(kāi)源平臺(tái)上,這是是歷史不可阻擋的趨勢(shì)。

/ 02 / 開(kāi)源,會(huì)損害公司的利益嗎?

Lex Fridman:公司主要還是以盈利為目的,而開(kāi)源代碼就像是無(wú)償福利一樣。扎克伯格做了一段非常帶勁的視頻,討論關(guān)于三十五萬(wàn)英偉達(dá)100s,關(guān)于這個(gè)的數(shù)學(xué)運(yùn)算,僅僅GPU就耗資一千億美元,更不要說(shuō)再加上訓(xùn)練基礎(chǔ)設(shè)施了。所以,我很好奇,公司如何通過(guò)這個(gè)賺錢(qián)呢?

Yann Lecun:Meta公司建立了一些用于盈利的商業(yè)大語(yǔ)言模型作為服務(wù)。這些服務(wù)的投資主要來(lái)源于廣告或商業(yè)客戶(hù)。比如,大語(yǔ)言模型可以幫助一個(gè)母親預(yù)定披薩餐廳,大語(yǔ)言模型會(huì)提供給顧客關(guān)于披薩銷(xiāo)量、訂餐位置的信息,而顧客需要為這樣的服務(wù)提供費(fèi)用,公司因此盈利。一些比較基礎(chǔ)的大預(yù)言模型依賴(lài)的就是廣告商支付的費(fèi)用,當(dāng)然關(guān)鍵在于你需要有一個(gè)足夠大的的潛在的客戶(hù)基礎(chǔ)。不論怎么說(shuō),這與開(kāi)源代碼的形式發(fā)布也無(wú)妨。

Lex Fridman:我并非專(zhuān)業(yè)的商業(yè)人士,但是如果以開(kāi)源模式發(fā)布,會(huì)不會(huì)給其他人一些在微調(diào)基礎(chǔ)模型領(lǐng)域里創(chuàng)立任務(wù)、加劇競(jìng)爭(zhēng)的機(jī)會(huì)?這是Meta對(duì)長(zhǎng)遠(yuǎn)未來(lái)的下注,是否意味著我們會(huì)在該領(lǐng)域持續(xù)進(jìn)步?

Yann Lecun:我們敢打這個(gè)賭,關(guān)鍵在于我們有一個(gè)龐大的用戶(hù)基礎(chǔ)和客戶(hù)市場(chǎng),無(wú)論我們制作什么樣的產(chǎn)品,只要具備一定程度上的實(shí)用性,就有客戶(hù)愿意買(mǎi)單,這也是我們獲得收入的方式。設(shè)計(jì)這樣的開(kāi)源基礎(chǔ)模型,讓其他商家也在此基礎(chǔ)上創(chuàng)建相關(guān)垂直應(yīng)用,對(duì)我們也沒(méi)有害處。如果顧客喜歡這些應(yīng)用,我們也有資本買(mǎi)下來(lái)。

同時(shí),他們也能幫助我們不斷優(yōu)化基礎(chǔ)模型平臺(tái)。實(shí)際上,LAMA2的下載量已有幾百萬(wàn),其中成千上百的用戶(hù)對(duì)關(guān)于如何優(yōu)化該模型提出了很棒的觀點(diǎn)。實(shí)際上,開(kāi)源模型的發(fā)布加速了讓大語(yǔ)言系統(tǒng)普及更大范圍人群的進(jìn)程,成千上萬(wàn)的商家正在建立相關(guān)應(yīng)用,所以這并沒(méi)有削弱Meta繼續(xù)從這項(xiàng)技術(shù)盈利的能力。

/ 03 / 設(shè)計(jì)倫理原則,監(jiān)管AI生成良性?xún)?nèi)容

Lex Fridman:關(guān)于Gemni人工智能平臺(tái),這里有一些爭(zhēng)議,大部分圍繞著西海岸。當(dāng)然,MetaAI總部在東海岸。關(guān)于西海岸,一直存在很尖銳的批評(píng),人們說(shuō)那里的技術(shù)員工與左翼黨派有著很密切的政治裙帶關(guān)系。所以,人們認(rèn)為Gemini在去偏見(jiàn)化的過(guò)程中,政治色彩就更加強(qiáng)烈,而這本來(lái)是可以避免的。你說(shuō),開(kāi)源模型是我們減少偏見(jiàn)的唯一方式,您覺(jué)得意識(shí)形態(tài)傾向讓基礎(chǔ)模型的編程變得更加困難嗎?

Yann Lecun:我并不認(rèn)為這兩者之間有任何關(guān)聯(lián),大語(yǔ)言模型的潛在偏見(jiàn)與研發(fā)人員的政治傾向沒(méi)什么關(guān)系。實(shí)際上,這些偏見(jiàn)與潛在客戶(hù)市場(chǎng)的政治傾向有一定聯(lián)系。因此,一家大公司沒(méi)有膽量去冒犯大部分人,公司必須確保自己研發(fā)的產(chǎn)品是“安全”的,在這方面,他們必須小心謹(jǐn)慎。

當(dāng)然,讓所有人都滿(mǎn)意是不可能的,沒(méi)有任何一件產(chǎn)品能夠取悅所有人。就像我之前說(shuō)的,不存在讓所有人都認(rèn)可的、毫無(wú)偏見(jiàn)的AI產(chǎn)品。針對(duì)同樣一件產(chǎn)品,一些人可能認(rèn)為是完全客觀的,另一些人可能認(rèn)為充滿(mǎn)了偏見(jiàn)。除此之外,如果你讓AI產(chǎn)品在某一領(lǐng)域過(guò)于超前,它可能會(huì)生成一些超于事實(shí)、荒謬至極的內(nèi)容,比如黑人納粹軍隊(duì)。

Lex Fridman:對(duì),我們應(yīng)該留意黑人納粹軍隊(duì)這樣的AI圖像生成內(nèi)容,這完全是胡編亂造。

Yann Lecun:是的,這對(duì)某些群體來(lái)說(shuō)特別冒犯。所以,就像之前討論的,研發(fā)出一個(gè)讓所有認(rèn)為毫無(wú)偏見(jiàn)的AI系統(tǒng)毫無(wú)可能,我認(rèn)為能解決這一問(wèn)題的唯一辦法就是通往多樣性。

Marc Andreesen推特博文

Lex Fridman:是的,這意味著各種意義、各種層面上的多樣性。Marc Andreessen認(rèn)為,只有初創(chuàng)公司和開(kāi)源代碼能避免他一直以來(lái)強(qiáng)調(diào)的大公司獨(dú)斷問(wèn)題。他問(wèn)道,大公司真的能優(yōu)化生成式人工智能產(chǎn)品,滿(mǎn)足一個(gè)不斷在升級(jí)的需求嗎?這里有幾方面的難題。

第一,來(lái)自?xún)?nèi)部積極分子、員工暴徒、高管、董事會(huì)、利益集團(tuán)、極端主義監(jiān)管者、政府機(jī)構(gòu)、媒體、“專(zhuān)家”等不斷升級(jí)的要求。

第二,生成不良答案、圖片、視頻的持續(xù)性風(fēng)險(xiǎn),誰(shuí)知道AI什么時(shí)候會(huì)說(shuō)出什么樣的話呢?

第三,法律風(fēng)險(xiǎn),可能的產(chǎn)權(quán)問(wèn)題、誹謗罪、選舉法等。AI生成的敏感回答可能會(huì)遭到批評(píng)家和律師的強(qiáng)烈抨擊,進(jìn)而讓本來(lái)就反對(duì)AI的人在國(guó)會(huì)門(mén)口或大街上大肆宣揚(yáng)這樣的風(fēng)險(xiǎn)。

第四,已有證據(jù)顯示,對(duì)可接受輸出的持續(xù)收緊計(jì)劃可能會(huì)降低模型的性能,并導(dǎo)致AI生成更加瘋狂的文本。

第五,對(duì)不良文本、圖像、視頻的宣傳會(huì)進(jìn)一步成為下一代AI版本的訓(xùn)練數(shù)據(jù),這些不良內(nèi)容的輸出會(huì)持續(xù)累加,愈加偏離最初的設(shè)計(jì)理念。第六,只有初創(chuàng)公司和開(kāi)源代碼能夠避免這個(gè)過(guò)程,生成功能合理的遵照用戶(hù)命令運(yùn)行的產(chǎn)品。

他從各種層面上強(qiáng)調(diào)了這一過(guò)程有多么困難,正如你說(shuō)的,我們不可能設(shè)計(jì)出一個(gè)讓所有人都滿(mǎn)意的AI產(chǎn)品?,F(xiàn)在的問(wèn)題關(guān)鍵在于盡可能縮減這些對(duì)AI產(chǎn)品不滿(mǎn)意的群體,所以采用開(kāi)源是更好的方式。

Yann Lecun:的確如此。Mark Andreessen說(shuō)的這些有道理,一定程度也會(huì)震懾到大型科技公司。實(shí)際上,協(xié)助國(guó)會(huì)調(diào)查就是這些公司必須承擔(dān)的法律責(zé)任,大公司也會(huì)盡可能去避免生成傷害自己或他人的敏感內(nèi)容,比如一些極端化、易產(chǎn)生分歧的政治觀念、道德議題、地區(qū)沖突、文化觀念。因?yàn)樗麄儾幌雮θ魏稳耍蚕M约旱纳虡I(yè)模式正常運(yùn)營(yíng)。實(shí)際上,除了一些基本議題外,能夠達(dá)成共識(shí)的議題少之又少。如果你想研發(fā)一個(gè)被大多數(shù)人買(mǎi)單的大語(yǔ)言模型,不可避免會(huì)冒犯一些人的利益。

Lex Fridman:所以,使用開(kāi)源模型觸及多樣化會(huì)帶領(lǐng)我們進(jìn)入一個(gè)特別迷人的世界。如果Meta能夠引領(lǐng)開(kāi)發(fā)這樣的基礎(chǔ)開(kāi)源模型,不同的政府組織也不得不研發(fā)一個(gè)屬于自己的新模型,左翼黨和右翼黨派的支持者都會(huì)擁有自己的大語(yǔ)言模型和偏向性,我們的人民也可能因此更加分裂、極化。這也是人類(lèi)自己需要探索的議題,因?yàn)榧夹g(shù)可以使人與人之間的交流更加高效,也可能會(huì)加劇人類(lèi)社會(huì)內(nèi)部的倫理問(wèn)題與道德困境。

Yann Lecun:LLM也會(huì)限制言論自由,這些模型會(huì)被授權(quán)生產(chǎn)一些適用于AI系統(tǒng)的的倫理原則,這也是我個(gè)人很感興趣的方向。就如我們之前討論的,AI輸出系統(tǒng)是為滿(mǎn)足遵守算法倫理原則在內(nèi)的目標(biāo)而進(jìn)行推理的結(jié)果,我們可以將這些倫理原則放入開(kāi)源體系中。如果最終我們能創(chuàng)建出以此為藍(lán)圖的系統(tǒng),就可以將這些基本的具有人類(lèi)普適性的倫理原則放入開(kāi)源代碼中,避免AI生產(chǎn)出一些過(guò)分危險(xiǎn)、有毒的言論。在這以后,用戶(hù)也可在對(duì)話中生成更多的數(shù)據(jù)優(yōu)化模型內(nèi)的倫理原則以滿(mǎn)足本群體的需求。

Lex Fridman:這些精細(xì)化工作將更多聚焦于灰色領(lǐng)域,例如一些具有危險(xiǎn)性質(zhì)的仇恨言論,類(lèi)似于一些“如何制造生物武器”的問(wèn)題。

Lex Fridman:這里有一份關(guān)于開(kāi)源基礎(chǔ)模型可能帶來(lái)的社會(huì)影響的科學(xué)論文。一個(gè)研究方向是大語(yǔ)言模型的出現(xiàn)是否會(huì)比像Google一樣的搜索引擎更加簡(jiǎn)便?

Yann Lecun:關(guān)于大語(yǔ)言模型的學(xué)術(shù)研究越來(lái)越多,這些研究結(jié)果似乎都指向一個(gè)關(guān)鍵點(diǎn):大語(yǔ)言模型的出現(xiàn)并不會(huì)幫助你設(shè)計(jì)研發(fā)生化武器。第一,如果你已經(jīng)知道使用搜索引擎或者去圖書(shū)館查詢(xún)資料,從開(kāi)源模型得到的信息并沒(méi)有什么實(shí)際上的用處。第二,一系列關(guān)于如何制造生化武器的指令十分復(fù)雜,并不在llm的能力范圍內(nèi)。更何況,為了保護(hù)公民安全,沒(méi)有哪個(gè)國(guó)家會(huì)輕使用生化武器,這也是被國(guó)際社會(huì)明令禁止的。就算給出明確的指令,由于程序的復(fù)雜性,也鮮少有人成功。

Lex Fridman:所以正如你說(shuō)的,要把LLM生成的語(yǔ)言指令轉(zhuǎn)化為現(xiàn)實(shí)生活中的實(shí)際應(yīng)用需要大量的專(zhuān)業(yè)技巧和實(shí)踐經(jīng)驗(yàn)。

/ 04 / LLAMA3:基于Jepa視頻訓(xùn)練的開(kāi)源模型

Lex Fridman:Llama3即將上市,當(dāng)然我不清楚具體的發(fā)布日。您是如何看待現(xiàn)有Llama2的產(chǎn)品功能和之后的第三代、第四代乃至第五代的研發(fā)方向的?也就是Meta旗下開(kāi)源模型的研發(fā)方向。

Yann Lecun:每一代的Llama版本都會(huì)不斷迭代升級(jí),優(yōu)化其原有的功能。在未來(lái),AI可能會(huì)像人類(lèi)一樣具備推理能力、計(jì)劃、預(yù)測(cè)的能力。至于這個(gè)產(chǎn)品的研發(fā)周期多長(zhǎng),我無(wú)法預(yù)測(cè)。因?yàn)樵谀侵?,我們還要攻克一輪又一輪技術(shù)難關(guān)。不過(guò)你可以關(guān)注我們的研究論文,把控AI產(chǎn)品的最新發(fā)展趨勢(shì)。

上一周,我們就剛剛發(fā)布了一篇如何讓AI通過(guò)看視頻進(jìn)行自我學(xué)習(xí)的學(xué)術(shù)文章。下一步,我們可能會(huì)聚焦于如何通過(guò)基于視頻訓(xùn)練的世界模型讓 AI更好地理解人類(lèi)世界基本原則。英國(guó)DeepMind也在做類(lèi)似的研究。我打賭,大多數(shù)模型都會(huì)是非生成機(jī)器學(xué)習(xí)技術(shù),而不是生成式模型,我們拭目以待。

DeepMind的研究人員Danijar Hafner就致力于讓AI通過(guò)強(qiáng)化學(xué)習(xí)來(lái)提高計(jì)劃能力。三十五年前,科學(xué)家們還在研究神經(jīng)網(wǎng),而如今,機(jī)器學(xué)習(xí)和人工智能已經(jīng)大行其道。我從來(lái)都沒(méi)有如此興奮過(guò),在未來(lái),人工智能一定程度上就可以跟人類(lèi)一樣語(yǔ)言理解 、記憶、思考、決策。我想在我退休前,AI就可以達(dá)到人類(lèi)同等水平的智力了。

Lex Fridman:你關(guān)于人工智能的暢想如此美妙,在如此龐大的計(jì)算能力下,整個(gè)訓(xùn)練過(guò)程所涉及的 GPU 數(shù)量之多,簡(jiǎn)直難以置信。是所有人一起努力,才能夠設(shè)計(jì)出如此巨大的計(jì)算設(shè)備,并在不斷微調(diào)優(yōu)化后搭建開(kāi)源平臺(tái)。有人說(shuō),是硬件、冷卻器等基礎(chǔ)設(shè)施組成的巨型計(jì)算系統(tǒng)孕育了開(kāi)源平臺(tái)。你如何看待這樣的說(shuō)法?

Yann Lecun:多年之前,我主要研發(fā)硬件這些AI基礎(chǔ)設(shè)施。研發(fā)人工智能,建設(shè)這樣大規(guī)模的硬件基礎(chǔ)設(shè)施非常有必要,但還遠(yuǎn)遠(yuǎn)不夠。就計(jì)算能力和效率而言,要達(dá)到和人腦匹敵的AGI程度,我們還差的很遠(yuǎn),至少還要幾十年的路要走。硅谷技術(shù)一直在推動(dòng)AI硬件升級(jí),其搭建的更受歡迎的人工智能架構(gòu)基本上就是變壓器和計(jì)算機(jī)網(wǎng)絡(luò)的組合。在達(dá)到飽和之前,我們還有很長(zhǎng)的路要走,我們要想出新的原理、新的制造技術(shù)、新的基本元件,也許它們所基于的原理與那些經(jīng)典的數(shù)字半導(dǎo)體不同。

Lex Fridman:也就是說(shuō),為了構(gòu)建與人類(lèi)具有同等思維、感情的擬人機(jī)器智能AMI,我們可能還需要一些硬件創(chuàng)新。

Yann Lecun:當(dāng)然,如果我們想讓它無(wú)處不在,就必須降低計(jì)算功耗。現(xiàn)在一個(gè) GPU 的功耗在五百瓦特到一千瓦特之間,而人腦的功耗約為25瓦特,GPU 的功耗遠(yuǎn)遠(yuǎn)高于人腦的功耗,你需要十萬(wàn)或上百萬(wàn)瓦特的 GPU 才能與之匹敵。這是影響AI發(fā)展的關(guān)鍵因素。

Lex Fridman:你常常說(shuō),AGI距我們還有很遠(yuǎn)的距離,不是幾年之內(nèi)就可以研發(fā)成功的,你的推斷依據(jù)是什么?

Yann Lecun:首先,AGI是一個(gè)被科幻小說(shuō)和好萊塢大片炒熱的概念,學(xué)界目前還沒(méi)有具體的構(gòu)想。電影橋段常常是有人發(fā)現(xiàn)了AGI的秘密,然后打開(kāi)一架機(jī)器,AGI就產(chǎn)生了。這根本就是胡編亂造,沒(méi)有現(xiàn)實(shí)依據(jù)的。

其次,我們會(huì)慢慢優(yōu)化現(xiàn)有的系統(tǒng),讓AI在達(dá)到人腦級(jí)別的規(guī)模和性能前,以視頻為學(xué)習(xí)材料理解世界運(yùn)行的基本準(zhǔn)則。我們將設(shè)計(jì)一個(gè)擁有大量關(guān)聯(lián)信息的系統(tǒng),這樣他們就能記住錄入的所有知識(shí),理解記憶、理性推論和決策。在這之前,我們要不斷研發(fā)、優(yōu)化相關(guān)基礎(chǔ)技術(shù),使其與整個(gè)系統(tǒng)一起工作,這將與目標(biāo)導(dǎo)向型人工智能技術(shù)一脈相承。我們需要不斷提升AI的層次化規(guī)劃(hierarchical planning)和層次化表達(dá)(hierarchical representation)能力,以得到一個(gè)可以像人腦一樣能處理不同情況的AI系統(tǒng)。

不過(guò),這是一個(gè)漫長(zhǎng)的過(guò)程,不可能一蹴而就。因?yàn)樵诂F(xiàn)階段,我們也無(wú)法預(yù)測(cè)未來(lái)研發(fā)過(guò)程中,會(huì)遇到什么樣的技術(shù)難題。很多人都說(shuō)AGI近在眼前,在我看來(lái),這純屬扯淡,毫無(wú)現(xiàn)實(shí)依據(jù)。

/ 05 / AI末世論:好萊塢電影式的無(wú)稽之談

Lex Fridman:你反對(duì)所謂的AI末日論,那么為什么會(huì)有人認(rèn)為AI會(huì)帶來(lái)毀滅,你如何反擊這種說(shuō)法呢?

Yann Lecun:AI末世論會(huì)幻象各種各樣AI控制人類(lèi)屠殺人類(lèi)的災(zāi)難場(chǎng)景,而這些幻想的基本假設(shè)根本立不住腳。第一個(gè)假說(shuō),超級(jí)智能的出現(xiàn)將會(huì)成為現(xiàn)實(shí),只要按下開(kāi)關(guān)按鈕,擁有超級(jí)智能的機(jī)器就會(huì)毀滅世界。這純粹是胡說(shuō)八道。我們會(huì)研發(fā)和人類(lèi)智能匹敵的AI系統(tǒng),但這種程度的智能就現(xiàn)階段看來(lái)會(huì)更像一只小貓或者鸚鵡,不會(huì)有毀滅人類(lèi)的智力。

其次,在升級(jí)AI性能的同時(shí),我們會(huì)設(shè)計(jì)各種各樣制約AI的機(jī)器倫理準(zhǔn)則,防止AI走向人類(lèi)的對(duì)立面。就算一些準(zhǔn)則出了問(wèn)題,也會(huì)有AI界的審查官(AI security police)自動(dòng)懲罰這些出錯(cuò)的程序。這里還有一個(gè)謬論,有人說(shuō)因?yàn)橄到y(tǒng)具備智力,它就有統(tǒng)治人類(lèi)的愿望。

實(shí)際上,一個(gè)物種的智能程度越高,其統(tǒng)治或毀滅世界的欲望就越低。除非在研發(fā)階段,技術(shù)人員就給AI設(shè)計(jì)了毀滅世界的目標(biāo)。除此之外,AI根本就不會(huì)關(guān)注人類(lèi)。因?yàn)锳I不是地球上的物種,沒(méi)有生命特征,也不遵從達(dá)爾文“物競(jìng)天擇,適者生存”的叢林法則。統(tǒng)治欲是一種根深蒂固的動(dòng)物本能,這種支配、服從或獲得地位的欲望是社會(huì)物種所特有的。人會(huì)有,黑猩猩會(huì)有,但像AI一樣不具備社會(huì)性的主體絕無(wú)可能

Lex Fridman:人類(lèi)沒(méi)有動(dòng)力將AI末世論編碼進(jìn)人工智能系統(tǒng),就算有人編碼,也會(huì)有其他人工智能對(duì)其進(jìn)行懲罰。

Yann Lecun:大多數(shù)人希望人工智能服從并服務(wù)人類(lèi),這也是我們正在做的事。有人說(shuō),現(xiàn)在的大語(yǔ)言模型不受控制,這也是事實(shí)。但是目標(biāo)驅(qū)動(dòng)型人工智能系統(tǒng)通過(guò)優(yōu)化目標(biāo)得出答案,這意味著它們必須優(yōu)化包括AI倫理原則在內(nèi)的目標(biāo)。這里有各種各樣的倫理原則相互競(jìng)爭(zhēng),可能是會(huì)傷害人類(lèi)的,也可能是服務(wù)于人類(lèi)的。

Lex Fridman:我好像在那本書(shū)里看到過(guò)類(lèi)似的觀點(diǎn),這可能會(huì)出現(xiàn)預(yù)想不到的后果。

Yann Lecun:是的,這很復(fù)雜。設(shè)計(jì)一些倫理準(zhǔn)則,讓人工智能表現(xiàn)正常,并不能成為一劑可以包治百病的靈丹妙藥。這是一個(gè)循序漸進(jìn)的迭代過(guò)程,在這個(gè)系統(tǒng)中,我們會(huì)設(shè)置各種各樣的倫理準(zhǔn)則制約AI。如果一些倫理準(zhǔn)則違背了人類(lèi)道德,我們也會(huì)及時(shí)修正。但是,出一點(diǎn)點(diǎn)錯(cuò)就會(huì)導(dǎo)致人類(lèi)滅亡純屬無(wú)稽之談。就像渦輪噴氣發(fā)動(dòng)機(jī)設(shè)計(jì)一樣,幾百年前我們也不曾設(shè)想僅僅通過(guò)兩個(gè)發(fā)動(dòng)機(jī)就能在半空中自由翱翔,沒(méi)有人一開(kāi)始就設(shè)計(jì)了全面詳備的飛行安全準(zhǔn)則,任何技術(shù)的發(fā)展都有一個(gè)過(guò)程,AI也一樣。

Lex Fridman:人類(lèi)易盲目輕信,如果出現(xiàn)一個(gè)極具說(shuō)服力的能告訴人們?nèi)魏未鸢傅腁I系統(tǒng),從某種意義上說(shuō),它就具備了控制人類(lèi)心靈的能力,這樣的系統(tǒng)有可能成為像核武器一樣為政府所用的武器嗎?

Yann Lecun:設(shè)計(jì)一個(gè)讓所有美國(guó)選民都投給某個(gè)人的AI系統(tǒng)嗎?不可能。未來(lái)你是跟你的人工智能助手交流的,每一次與數(shù)字世界的互動(dòng)都要經(jīng)過(guò)你的私人AI助理。你的第一個(gè)問(wèn)題,AI會(huì)欺騙你嗎?不會(huì),未來(lái)的私人AI助手會(huì)幫你自動(dòng)過(guò)濾掉垃圾信息,你甚至都不太可能會(huì)看到這樣的言論。因?yàn)槟菚r(shí)的AI助理已經(jīng)有了識(shí)別詐騙信息的能力,它會(huì)自動(dòng)告訴你這個(gè)信息有錯(cuò)或者具有煽動(dòng)性。

Lex Fridman:所以,任何人工智能系統(tǒng)都很難去說(shuō)服其他人工智能系統(tǒng),因?yàn)椴煌腁I系統(tǒng)之間總會(huì)想回競(jìng)爭(zhēng),誰(shuí)也無(wú)法遙遙領(lǐng)先。

Yann Lecun:人類(lèi)歷史告訴我們,每當(dāng)世界某個(gè)領(lǐng)域開(kāi)始變革,都會(huì)有相應(yīng)的反制措施,就像貓和老鼠的游戲。

Lex Fridman:這就是各國(guó)熱衷于技術(shù)競(jìng)賽的原因,人們都想做該領(lǐng)域的掌舵者,先發(fā)制人。先掌握這門(mén)技術(shù)的政府,會(huì)對(duì)世界局勢(shì)產(chǎn)生巨大影響,就像上世紀(jì)的曼哈頓計(jì)劃一樣。

Yann Lecun:政府不會(huì)主導(dǎo)AI發(fā)展,這不是某個(gè)政府或軍事組織能辦到的。事實(shí)上,政府遠(yuǎn)遠(yuǎn)落后于其他組織。變革與突破將來(lái)自工業(yè)界,一旦發(fā)生就會(huì)廣泛傳播。過(guò)去幾年的AI發(fā)展也證實(shí)了這一說(shuō)法。只要有商業(yè)潛力,就會(huì)有人投資。投資者不需要了解AI的運(yùn)行原理,他們不需要知道什么是機(jī)器學(xué)習(xí)自我監(jiān)督,什么是變壓器和大預(yù)言模型。他們要做的只是投資、創(chuàng)立公司、復(fù)制商業(yè)模式,剩下的交給專(zhuān)業(yè)技術(shù)人員就可以了。商業(yè)信息的傳播會(huì)加速科技發(fā)展,美國(guó)硅谷就憑借著發(fā)達(dá)的信息網(wǎng)絡(luò)在全世界遙遙領(lǐng)先。

Lex Fridman:或許我們一直在研究AI末世論的社會(huì)心理成因,你也論證了世界科技變革時(shí)社會(huì)發(fā)展的歷史規(guī)律。你曾發(fā)布推文,寫(xiě)道,工程師,“我發(fā)明了可以寫(xiě)字的圓珠筆?!眻A珠筆末日論擁護(hù)者,“天哪!圓珠筆!會(huì)有人用圓珠筆寫(xiě)一大堆虛假信息、政治宣傳和仇恨言論。我們必須要制定相關(guān)法律監(jiān)管圓珠筆生成的有害言論?!便U筆商業(yè)巨頭:“圓珠筆簡(jiǎn)直太危險(xiǎn)了。還是用鉛筆吧,寫(xiě)什么都可以用橡皮擦掉,政府應(yīng)該發(fā)布圓珠筆售賣(mài)經(jīng)營(yíng)許可證監(jiān)督圓珠筆市場(chǎng)?!边@體現(xiàn)了一項(xiàng)新技術(shù)出現(xiàn)時(shí),不同社會(huì)群體會(huì)有心理活動(dòng)。對(duì)此,你有什么深刻的見(jiàn)解嗎?

Yann Lecun:對(duì)新技術(shù)出現(xiàn)可能帶有的社會(huì)影響感到恐懼是非常正常的心理現(xiàn)象,對(duì)重大變革威脅人類(lèi)生存的擔(dān)憂(yōu)是一種本能反應(yīng),無(wú)論這種變革是技術(shù)層面的還是文化層面的。他們擔(dān)心民族文化的傳承、擔(dān)心自己是否會(huì)失業(yè)、擔(dān)心孩子未來(lái)的生活,尋求安穩(wěn)的人們恐懼任何可能的變化。

就歷史發(fā)展而言,任何重大的技術(shù)變革或文化變遷都伴隨著這樣一種現(xiàn)象,媒體會(huì)將所有現(xiàn)存的社會(huì)問(wèn)題都?xì)w結(jié)于變革。類(lèi)似于老掉牙的“別做火車(chē),時(shí)速超過(guò)五十公里人們就難以呼吸?!?/p>

這里有一個(gè)叫悲觀主義者檔案(Pessimist Archive)的網(wǎng)站,里面包括了各種科技創(chuàng)新和文化變遷帶來(lái)災(zāi)難的剪報(bào)。例如,將失業(yè)或年輕人不想工作歸咎于爵士樂(lè)或漫畫(huà)書(shū),這樣的說(shuō)法已經(jīng)存在了幾個(gè)世紀(jì)。對(duì)于科技變革的擔(dān)憂(yōu)就像是一種膝跳反應(yīng),問(wèn)題的關(guān)鍵在于我們是否愿意擁抱變化。

Lex Fridman:人們確實(shí)會(huì)畏懼AI潛在的強(qiáng)大力量被某種中央極權(quán)力量控制。例如,科技巨頭掌握核心技術(shù)后可以盈利,同時(shí)也會(huì)壟斷話語(yǔ)權(quán),危害社會(huì)弱勢(shì)群體的生存。

Yann Lecun:確實(shí),這就是我們研發(fā)開(kāi)源平臺(tái)的原因。

Lex Fridman:您介意談?wù)勗诖笮凸驹谘邪l(fā)階段如何避免AI可能帶來(lái)的傷害?

Yann Lecun:答案就是做好開(kāi)源平臺(tái),讓更多不同的人參與構(gòu)建人工智能輔助工具,以代表世界各地不同的文化、觀點(diǎn)、語(yǔ)言和價(jià)值體系,從而避免受限于特定的思維方式制造出單一的人工智能產(chǎn)品。這對(duì)社會(huì)來(lái)說(shuō)有重要的意義,這也是為什么我一直大聲呼吁建設(shè)開(kāi)源平臺(tái)。

因?yàn)樵谖铱磥?lái),通過(guò)專(zhuān)有人工智能系統(tǒng)進(jìn)行權(quán)力集中的危險(xiǎn)比其他任何事都可怕。在未來(lái),我們都將通過(guò)人工智能系統(tǒng)進(jìn)行互動(dòng),為了保護(hù)觀點(diǎn)的多樣性,我們需要不同的聲音來(lái)維護(hù)人工智能系統(tǒng)的多樣性,從而保護(hù)民主體制。

那些反對(duì)開(kāi)源的人更多以安全為說(shuō)辭,他們呼吁給AI系統(tǒng)上鎖,因?yàn)樽屆總€(gè)人都掌握AI技術(shù)實(shí)在太過(guò)危險(xiǎn),比如一些威脅人類(lèi)生存的恐怖組織。加密AI會(huì)帶了一個(gè)特別可怕的時(shí)代,每個(gè)人的信息都被少數(shù)掌握專(zhuān)有AI的科技巨頭控制、分配、審查。

Lex Fridman:你覺(jué)得人類(lèi)會(huì)利用AI技術(shù)創(chuàng)造一個(gè)更美好的世界嗎?

Yann Lecun:是所謂的民主和言論自由嗎?你覺(jué)得掌握科技的機(jī)構(gòu)會(huì)做為人類(lèi)謀福利的事嗎?人有好有壞,有人會(huì)利用AI犯罪,有人會(huì)借助AI做慈善,這其實(shí)是正邪之間的博弈。就像之前討論的,資本可能利用AI生成煽動(dòng)言論,鼓動(dòng)人們打內(nèi)戰(zhàn)或者選舉獨(dú)裁者。但是,我們也有相應(yīng)的AI警察去識(shí)別、抵制這些不良言論。

/ 06 / Humanoid robots:人形機(jī)器人的興起

Lex Fridman:既然談到了物理現(xiàn)實(shí),我就想問(wèn)問(wèn)你對(duì)未來(lái)物理現(xiàn)實(shí)中的機(jī)器人有何展望?您談到的許多智能技術(shù),都將助力機(jī)器人成為更高效的人類(lèi)合作者。自從Telsa Optimus 團(tuán)隊(duì)發(fā)布了了仿人機(jī)器人的一些進(jìn)展后,這確實(shí)為波士頓動(dòng)力公司一直引領(lǐng)的整個(gè)行業(yè)注入了新的活力。所以,整條街都是機(jī)器人走來(lái)走去,這樣的景象會(huì)很快到來(lái)嗎?

Yann Lecun:不會(huì)很快,但遲早會(huì)發(fā)生。我認(rèn)為,未來(lái)十年是機(jī)器人發(fā)展的高速階段。機(jī)器人行業(yè)的興起已經(jīng)等待了二十年,除了一些預(yù)編程,整個(gè)行業(yè)還沒(méi)有真正落地。主要的問(wèn)題還是莫拉維克悖論,比如,我們?nèi)绾巫孉I系統(tǒng)理解世界的運(yùn)作邏輯,并計(jì)劃行動(dòng)完成特定任務(wù)?

波士頓動(dòng)力公司的做法十分經(jīng)典,通過(guò)創(chuàng)新提前部署大量人工設(shè)計(jì)的動(dòng)態(tài)模型和精密規(guī)劃。但是這并不能解決所有問(wèn)題,我們距離全自動(dòng)五級(jí)自動(dòng)駕駛還很遙遠(yuǎn)?,F(xiàn)在的AI系統(tǒng)還不能像一個(gè)17歲的孩子一樣,通過(guò)20個(gè)小時(shí)的駕駛來(lái)訓(xùn)練自己。這種情況在未來(lái)可能改善,當(dāng)我們擁有可以讓機(jī)器自動(dòng)訓(xùn)練的世界模型(world models)后,AI才可以理解整個(gè)世界的運(yùn)行邏輯?,F(xiàn)在致力于研發(fā)人形機(jī)器人的公司做了一個(gè)長(zhǎng)遠(yuǎn)的賭注,他們相信,AI在人形機(jī)器人這個(gè)分支仍有巨大的商業(yè)潛力。

Lex Fridman:這些公司也在研發(fā)相關(guān)的AI產(chǎn)品,而在你們?cè)O(shè)計(jì)出強(qiáng)大的世界模型之前,人們?cè)噲D研發(fā)某種不那么完美高校的機(jī)器人幫助實(shí)現(xiàn)工廠內(nèi)某些領(lǐng)域的自動(dòng)化,不過(guò),考慮到安全生產(chǎn)問(wèn)題,這是一個(gè)比較艱巨的任務(wù)。

Yann Lecun:家庭機(jī)器人會(huì)更有意思,他們可以幫忙清理餐桌、洗碗甚至做飯。理論上說(shuō),所有的家庭瑣事都可以被自動(dòng)化,但從現(xiàn)有技術(shù)講,這仍然是一件非常精妙復(fù)雜的任務(wù)。大部分的機(jī)器狗已經(jīng)可以完成一些簡(jiǎn)單的指令,比如打開(kāi)冰箱取出罐頭,但是讓它打掃整個(gè)屋子的衛(wèi)生仍然很困難。

/ 07 / 分層規(guī)劃,AI走向人類(lèi)智能的必經(jīng)之處

Lex Fridman:在未來(lái),我們?cè)诂F(xiàn)實(shí)物理環(huán)境里會(huì)跟各種各樣機(jī)器人打交道,這也促使我進(jìn)一步從哲學(xué)、心理學(xué)意義上思考人機(jī)關(guān)系。希望你們?cè)贘EPA研發(fā)過(guò)程中上取得更大進(jìn)展。

Yann Lecun:希望計(jì)劃如期進(jìn)行吧。近十年來(lái),我們都在研究無(wú)需人工參與的以視頻為材料的機(jī)器自我監(jiān)督學(xué)習(xí),但直到最近兩三年才得到了顯著成果。

Lex Fridman:其實(shí),您之前也提到過(guò),我們可以在沒(méi)有大量計(jì)算資源的情況下取得重大突破。如果對(duì)該領(lǐng)域感興趣并取得博士學(xué)位,這里仍然有許多科技創(chuàng)新可能性,你會(huì)向深情AI博士學(xué)位的在讀大學(xué)生提出什么樣的建議?

Yann Lecun:通過(guò)觀察訓(xùn)練世界模型,你不需要一個(gè)龐大的數(shù)據(jù)集作為支撐。像大語(yǔ)言模型一樣的新興產(chǎn)業(yè)需要海量數(shù)據(jù)作為養(yǎng)分,但是沒(méi)有這些數(shù)據(jù)我們也可以思考出一些很棒的科學(xué)構(gòu)想。

那么,如何利用學(xué)習(xí)到的世界模型進(jìn)行規(guī)劃呢?如果系統(tǒng)演化的世界不是物理世界,而是互聯(lián)網(wǎng)世界或某種打開(kāi)搜索引擎查詢(xún)數(shù)據(jù)庫(kù)或運(yùn)行計(jì)算器求解微分方程的具體指令。我們需要讓一個(gè)AI系統(tǒng)實(shí)際規(guī)劃一連串的行動(dòng),從而給出問(wèn)題的解決方案。規(guī)劃的問(wèn)題不僅僅是物理行動(dòng),也可以是分層指令,實(shí)際上,這些規(guī)劃適用于任何類(lèi)型的智能系統(tǒng)。

我們采取的幾乎每一個(gè)行動(dòng)在某種意義上都涉及到分層規(guī)劃。在人工智能中,我們已經(jīng)學(xué)會(huì)了必要的層次表征。我們可以進(jìn)行兩級(jí)分層規(guī)劃,我們?cè)O(shè)計(jì)了分層。

比如說(shuō),你有一只機(jī)器狗,你想讓它從客廳到廚房。你需要告訴它一條避開(kāi)障礙物的路徑,它就可以按照指令去往規(guī)定地點(diǎn)。但是具體路線是我們告訴機(jī)器狗的,而現(xiàn)在,AI需要通過(guò)深度學(xué)習(xí),訓(xùn)練系統(tǒng)運(yùn)行流程的分級(jí)表示。

Lex Fridman:所以你期待的是一個(gè)可以自己開(kāi)機(jī)并從紐約飛到巴黎的機(jī)器狗或人形機(jī)器人。其實(shí)人形機(jī)器人還面臨著很多技術(shù)難題,特別是在特定任務(wù)架構(gòu)(Task-Specific Architectures)的執(zhí)行過(guò)程中。即使是我們認(rèn)為理所當(dāng)然的做一些簡(jiǎn)單的家務(wù),機(jī)器也可能會(huì)遇到問(wèn)題。

/ 08 / AI將增強(qiáng)人類(lèi)智能,促進(jìn)社會(huì)福祉

Lex Fridman:談?wù)勀銓?duì)人類(lèi)社會(huì)的暢想吧。我們一直在討論科技發(fā)展和各種各樣振奮人性的可能性。但同時(shí),社交平臺(tái)上一直存在各種仇恨和分裂的聲音,在這些極端言論種,是什么給了你希望?當(dāng)你向前展望十年、五十年甚至五千年,你認(rèn)為人類(lèi)社會(huì)的希望在那里?

Yann Lecun:人工智能會(huì)增強(qiáng)人類(lèi)智力。在未來(lái),每個(gè)人都會(huì)有一個(gè)智能AI助理,聽(tīng)從我們的命令,更加高效完成任務(wù)。這就好比每個(gè)人都是超級(jí)智能虛擬員工的老板,我們管理著一批比我們更聰明的人。擁有比我們更聰明的機(jī)器,可以幫助我們完成日常生活的所有任務(wù),太棒了。

人工智能就跟曾經(jīng)的書(shū)籍、公共教育、互聯(lián)網(wǎng)一樣,會(huì)幫助人們自我提升,讓人類(lèi)更加聰明。就像以前的《圣經(jīng)》和印刷術(shù),人工智能可以高效地整合、傳播、分配知識(shí),促進(jìn)啟蒙、增強(qiáng)人類(lèi)智慧。

許多人擔(dān)心人工智能技術(shù)會(huì)對(duì)就業(yè)市場(chǎng)和勞動(dòng)力市場(chǎng)帶來(lái)影響,但專(zhuān)家表示,這種技術(shù)變革不會(huì)導(dǎo)致大規(guī)模失業(yè),而是逐漸轉(zhuǎn)移不同職業(yè)。盡管我們無(wú)法預(yù)測(cè)未來(lái)最熱門(mén)的工作是什么,但人工智能可能會(huì)帶來(lái)一些新的機(jī)會(huì)。

雖然AI末世論擁護(hù)者認(rèn)為人性本惡,但開(kāi)源人工智能技術(shù)可以使人們變得更聰明,同時(shí)賦予人類(lèi)善良的一面。開(kāi)源運(yùn)動(dòng)推動(dòng)了人工智能研究的開(kāi)源,讓更多的人可以使用和改進(jìn)這些模型??傊?,盡管人工智能技術(shù)帶來(lái)了一些新的挑戰(zhàn)和問(wèn)題,但我們應(yīng)該相信人性本善,并利用技術(shù)的優(yōu)勢(shì)來(lái)走向更好的未來(lái)。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多