| 科幻小說《2001:太空奧德賽》和根據(jù)它改編而成的經(jīng)典電影《2001 太空漫游》,講述了 AI 由人類幫手變?yōu)槿祟悮缯叩墓适?。我們親手打造的 AI,會在未來葬送人類嗎?霍金表示,這絕非危言聳聽。 圖片來自:視頻截圖 近日,在劍橋大學(xué) Leverhulme 智能未來中心的開幕式上,霍金為火爆的 AI 行業(yè)潑了盆冷水。 “我們花了大量時間學(xué)習(xí)歷史,”霍金在演講中說道,“而我們所面對的歷史,大多是愚蠢的。所以,現(xiàn)在人們在研究智能的未來,這是一個令人欣慰的變化?!?/p> 霍金表示 AI 研究的確帶來了許多積極因素,認(rèn)為通過這項新技術(shù),人類或許能夠消除工業(yè)化對自然界造成的一些損害,而最終目標(biāo)肯定是消除疾病和貧困。 
 圖片來自:Kiplinger 然而,作為享譽(yù)世界的物理學(xué)家,霍金對于 AI 持謹(jǐn)慎態(tài)度,他認(rèn)為一旦人類創(chuàng)造出具有自我意識的超級智慧,可能會面臨著自我毀滅的風(fēng)險,因為 AI 的意志可能會與我們產(chǎn)生沖突。 
 霍金之所以會有這種擔(dān)憂,是因為在他看來,AI 的潛力是無限的,“生物大腦與電腦的能力并沒有太區(qū)別。” “因此,從理論上講,計算機(jī)可以模仿人類智慧,并超越它?!?/p> 這已經(jīng)不是霍金第一次對 AI 潛在威脅提出警告了。去年年初,霍金就與一些 AI 專家,還有馬斯克、沃茨等名人發(fā)表聯(lián)合聲明,呼吁禁止武器化 AI 和自主作戰(zhàn)系統(tǒng)。 圖片來自:Gralien Report 當(dāng)時霍金解釋說,AI 的真正風(fēng)險不在于其是否充滿惡意而在于其能力。他舉了個例子:你在負(fù)責(zé)一項水利工程時,不得不淹沒蟻穴,盡管你并不是一個仇恨螞蟻的人,但在完成目標(biāo)時無意間就為螞蟻帶來了滅頂之災(zāi)。 所以,當(dāng)一個能力 MAX 的超級人工智能在執(zhí)行任務(wù)時,如果它的目標(biāo)與人類不一致,那么人類就有可能面臨與螞蟻同樣的厄運。 盡管目前人工智能的發(fā)展仍處于起步階段,但霍金對于 AI 威脅的評價,或許值得我們深思: 
 題圖來自:Silver Ferox | 
|  |