人工智能(AI)正在以驚人的速度持續(xù)進步。當AI在所有領域都超越人類智慧的時代到來之時,世界將會發(fā)生怎樣的變化呢?被譽為“AI教父”的多倫多大學名譽教授杰弗里·辛頓(Geoffrey Hinton)在加拿大的家中接受了日本經(jīng)濟新聞(中文版:日經(jīng)中文網(wǎng))的采訪,講述了AI和人類的未來。 杰弗里·辛頓奠定了作為目前AI核心技術的“深度學習”的基礎。2023年,他突然從已工作10多年的美國谷歌辭職,開始談論AI的威脅。 記者:您一度擔任AI研發(fā)的重要職務卻最終離開谷歌,原因是什么? 辛頓:這是因為我希望離職后自由地傳播自己相信的東西。我在2023年4月與作為上司的首席科學家杰夫·迪恩(Jeff Dean)交談。我提出了AI有可能帶來事關人類生存危機的看法。 他有意挽留我說:“留在谷歌研究AI的安全對策怎么樣?”。我非常尊敬他,但拒絕了提議。即使不會被明確限制,如果身為谷歌的一員,講話時也不得不考慮到公司的利益。 記者:您為什么認為AI有可能威脅人類? 辛頓:這是因為如果給AI設定目標,作為解決對策,它可能會找出對人類不利的方法。比方說,假設向AI下達遏制氣候變化的指令。AI會意識到為了達到目的而有必要將人類清除,我擔心真的會付諸實施的風險。 今后還可能會出現(xiàn)不同的AI相互競爭的局面。例如,如果AI之間發(fā)生數(shù)據(jù)中心等資源的爭奪,這將是一個像生物體一樣推動進化的過程。面對通過競爭變得更聰明的AI,我們?nèi)祟悓⒙湓诤竺妗?/p> 很多人主張,要防止AI失控,只要關掉電源開關就可以。但超越人類智慧的AI可以用語言操縱我們。或許會試圖說服我們不要關掉開關。 記者:您的學生、美國OpenAI公司聯(lián)合創(chuàng)始人伊爾亞·蘇茨克維(Ilya Sutskever)在2023年11月曾試圖解雇該公司首席執(zhí)行官(CEO) 山姆·奧特曼(Sam Altman),但以失敗告終。據(jù)報道,其動機仍然是認為AI對人類構成威脅這一危機感。 辛頓:伊爾亞非常擔心AI的危險性。OpenAI是重視AI安全性的非盈利組織,但采用了管理盈利企業(yè)的結構。從這次的事件看出,甚至是這樣的組織,比安全性,會更優(yōu)先AI創(chuàng)造的利益。 以前我們都認為數(shù)字的智能不會像人類那么優(yōu)秀,理解語言和復雜的東西或將是很久之后的事情。伊爾亞率先改變了看法,但我并沒有馬上同意?,F(xiàn)在我覺得他是對的。 記者:聯(lián)合國針對先進AI被轉用于軍事作出了著眼于限制的緊急應對的決議。 辛頓:我認為未來10年內(nèi)將出現(xiàn)自主殺死人類的機器人武器。在第一次世界大戰(zhàn)中造成悲劇的化學武器被后來的國際協(xié)議所禁止。機器人武器或許遲早也會被限制。但是,這可能要等到真正在戰(zhàn)場上被使用、人類認識到會帶來多么悲慘的結局后才能實現(xiàn)。 我們誰也不希望看到被AI支配的未來。這一事實將成為各國在邁向AI武器限制的過程中保持一致步調(diào)的基礎。就像核戰(zhàn)爭一樣。這顯然對所有國家都有危害,所以美國和前蘇聯(lián)才能在冷戰(zhàn)期間就避免核戰(zhàn)爭達成協(xié)議。 杰弗里·辛頓因為對人的大腦產(chǎn)生興趣,在大學本科期間攻讀了實驗心理學。由于這些經(jīng)驗,他為模仿人類大腦神經(jīng)回路的機制的AI研發(fā)方法找到了可能性。 記者:OpenAI開發(fā)的“ChatGPT”等對話式AI能理解人類的語言嗎? 辛頓:我認為作為生成式AI基礎的大語言模型能像我們一樣理解語言。我在1985年建立了第一個語言模型。在模仿大腦如何理解語言的基礎上進行設計。大多數(shù)聲稱AI不懂語言的人并不掌握人類是如何理解語言的理論。
接受采訪的杰弗里·辛頓(Geoffrey Hinton,田中克佳攝) 記者:記得您以前好像說過“即使AI表面上看起來能理解語言,但實際上并不理解”。 辛頓:我一直把AI能不能理解笑話作為判斷的標準。2022年,讓使用谷歌開發(fā)的大語言模型“PaLM”的聊天機器人(自動應答系統(tǒng))解釋幾個笑話。聊天機器人能夠理解為什么笑話很有趣,并全部成功作出解釋。
記者:通過AI的研究,對人類的理解是否也發(fā)生了變化? 辛頓:由于模仿大腦的智能可以人為創(chuàng)造出來,因此有很多發(fā)現(xiàn)。有些哲學家認為人類天生就具有使用語言的功能,這完全是無稽之談。我們認為語言是出生后經(jīng)過學習的后天產(chǎn)物。 50年來,我一直為了讓AI更接近人類大腦而不斷推進開發(fā)。這是因為我相信大腦在功能上更優(yōu)越。但在2023年,我改變了想法。 人類分享知識需要很長時間,我們無法逃脫死亡。另一方面,在數(shù)字世界里,將一切內(nèi)容都分為“0”和“1”加以記錄。不依賴于特定的硬件,可以瞬間復制數(shù)據(jù)并運行完全相同的程序。 現(xiàn)在的對話式AI以人類大腦100分之1的規(guī)模而擁有數(shù)千倍的知識。大語言模型與人腦相比能夠更高效地學習。 記者:AI是否不僅擁有智能,還將擁有感覺? 辛頓:如果從主觀經(jīng)驗這一角度進行說明,我認為AI可以擁有和人類一樣的感覺。 人類也會經(jīng)歷與客觀事實不符的事件。例如我喝了很多酒,早上醒來時,眼前因為幻覺而出現(xiàn)了粉紅色的小象。我不會相信小象的存在,而是會認為自己的感知系統(tǒng)沒有正常工作,因此這只是內(nèi)在的體驗。 通過照相機收集視覺信息的AI也可以產(chǎn)生同樣的情況。例如,將物體放在相機前,用棱鏡使光線彎曲,形成產(chǎn)生物體在遠處的錯覺。如果對話式AI解釋稱感知系統(tǒng)因為棱鏡而不能正常工作,那么我們就可以說它有著和人類一樣的感覺。 記者:與您共同獲得“圖靈獎”的美國紐約大學教授楊立昆(Yann LeCun)否認了AI具有意識或感覺的可能性。 辛頓:他至今仍是我的朋友,但我們有不同的意見。也許他認為AI沒有主觀經(jīng)驗。很多人認為主觀經(jīng)驗是人類固有的,AI并不理解世界。這是個錯誤。 杰弗里·辛頓(Geoffrey Hinton) 曾在英國劍橋大學攻讀實驗心理學,1978年在英國愛丁堡大學獲得AI博士學位。在約半個世紀的時間里,他引領著世界AI研究,很多學生參與開發(fā)最尖端的生成式AI。曾于2013年至2023年供職美國谷歌?,F(xiàn)年76歲。 記者采訪所感: 1950年,數(shù)學家艾倫·圖靈設計了一個“圖靈測試”,用來判斷機器是否擁有和人類一樣的智能。在4年前的采訪中,我曾詢問辛頓,AI什么時候能聽懂語言并通過測試,他提出了“可能需要50到100年”的看法。 這次我也提出了相同的問題,得到的回答是“已經(jīng)快要及格了”。與上次采訪時驕傲地講述AI給社會帶來的好處相比,辛頓的態(tài)度發(fā)生了明顯變化。通過AI研究“人類如何思考”這一主題的頭號權威改變認識的意義重大。 他并不是在預言AI會統(tǒng)治人類。而是在未來具有不確定的前提下,強調(diào)長期的風險。我們的社會需要從正面接受并討論辛頓先生敲響的警鐘。 本文來自微信公眾號“日經(jīng)中文網(wǎng)”(ID:rijingzhongwenwang),作者:清水孝輔 硅谷,36氪經(jīng)授權發(fā)布。 |
|
|
來自: learnmachine > 《人工智能-英偉達》