小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

霍金說 AI 可能是人類的災(zāi)難,有理有據(jù)你會信嗎?

 llvsh 2016-10-21

霍金說 AI 可能是人類的災(zāi)難,有理有據(jù)你會信嗎?

科幻小說《2001:太空奧德賽》和根據(jù)它改編而成的經(jīng)典電影《2001 太空漫游》,講述了 AI 由人類幫手變?yōu)槿祟悮缯叩墓适?。我們親手打造的 AI,會在未來葬送人類嗎?霍金表示,這絕非危言聳聽。

霍金說 AI 可能是人類的災(zāi)難,有理有據(jù)你會信嗎?

圖片來自:視頻截圖

近日,在劍橋大學(xué) Leverhulme 智能未來中心的開幕式上,霍金為火爆的 AI 行業(yè)潑了盆冷水。

“我們花了大量時間學(xué)習(xí)歷史,”霍金在演講中說道,“而我們所面對的歷史,大多是愚蠢的。所以,現(xiàn)在人們在研究智能的未來,這是一個令人欣慰的變化?!?/p>

霍金表示 AI 研究的確帶來了許多積極因素,認(rèn)為通過這項新技術(shù),人類或許能夠消除工業(yè)化對自然界造成的一些損害,而最終目標(biāo)肯定是消除疾病和貧困。

“創(chuàng)造出智慧的潛在好處是巨大的,我們無法預(yù)測當(dāng)我們的心智被 AI 增強(qiáng)時,我們將達(dá)到何種成就。”

“我們生活的方方面面都會被改變,總之,成功創(chuàng)造出 AI 可能是我們文明史上最重要的事?!?/p>

霍金說 AI 可能是人類的災(zāi)難,有理有據(jù)你會信嗎?

圖片來自:Kiplinger

然而,作為享譽(yù)世界的物理學(xué)家,霍金對于 AI 持謹(jǐn)慎態(tài)度,他認(rèn)為一旦人類創(chuàng)造出具有自我意識的超級智慧,可能會面臨著自我毀滅的風(fēng)險,因為 AI 的意志可能會與我們產(chǎn)生沖突。

“總之,強(qiáng)大的 AI 的興起,或許將是人類最好或是最糟糕的事,這我們還不清楚。”

霍金之所以會有這種擔(dān)憂,是因為在他看來,AI 的潛力是無限的,“生物大腦與電腦的能力并沒有太區(qū)別。”

“因此,從理論上講,計算機(jī)可以模仿人類智慧,并超越它?!?/p>

這已經(jīng)不是霍金第一次對 AI 潛在威脅提出警告了。去年年初,霍金就與一些 AI 專家,還有馬斯克、沃茨等名人發(fā)表聯(lián)合聲明,呼吁禁止武器化 AI 和自主作戰(zhàn)系統(tǒng)。

霍金說 AI 可能是人類的災(zāi)難,有理有據(jù)你會信嗎?

圖片來自:Gralien Report

當(dāng)時霍金解釋說,AI 的真正風(fēng)險不在于其是否充滿惡意而在于其能力。他舉了個例子:你在負(fù)責(zé)一項水利工程時,不得不淹沒蟻穴,盡管你并不是一個仇恨螞蟻的人,但在完成目標(biāo)時無意間就為螞蟻帶來了滅頂之災(zāi)。

所以,當(dāng)一個能力 MAX 的超級人工智能在執(zhí)行任務(wù)時,如果它的目標(biāo)與人類不一致,那么人類就有可能面臨與螞蟻同樣的厄運。

盡管目前人工智能的發(fā)展仍處于起步階段,但霍金對于 AI 威脅的評價,或許值得我們深思:

“人工智能的短期影響取決于誰控制了它,而長期影響則取決于它到底能不能被控制?!?/p>

題圖來自:Silver Ferox

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多