小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

想要擁有聰明又善良的 AI 機(jī)器,到底可不可能? | 愛范兒

 llvsh 2016-06-24

如果你的 AI 機(jī)器在玩游戲快輸了的時候,會按下“暫?!辨I,讓游戲永久暫停,你覺得是它是聰明還是狡猾?

隨著技術(shù)的發(fā)展,這些“聰明”又“狡猾”的 AI 機(jī)器越來越多。

而人類也開始思考 AI 與人類在未來的關(guān)系,部分像霍金、馬斯克這樣的業(yè)界名人抱有非常謹(jǐn)慎和悲觀的觀點(diǎn)。即使現(xiàn)階段而言,人類制造出來的 AI 還沒有什么異常舉動。

但是,很多人已經(jīng)開始設(shè)想“如果”了——如果它們“叛變”,做出傷害人類的事情,該怎么辦?比如電影中的那些形象:終結(jié)者,奧創(chuàng)等等。

age-of-ultronAA

能學(xué)習(xí)的機(jī)器人

提及 AI 機(jī)器人,Google 那個很會下圍棋的 AlphaGo ,相信你并不會陌生。

人類開發(fā)設(shè)計出來的方法教會了 AI 怎么學(xué)習(xí),如 AlphaGo 就通過“多層神經(jīng)網(wǎng)絡(luò)”的方法,學(xué)會了人類都想不到的圍棋“招數(shù)”。

而現(xiàn)在 Google 將這些教會 AI 機(jī)器人學(xué)習(xí)等技術(shù)運(yùn)用在其搜索引擎、機(jī)器人還有自動駕駛汽車中。

也就是說,人類為 AI 機(jī)器更“智能”而嘗試了一些處理問題的新思路。正是這種嘗試,讓這些 AI 機(jī)器有了新的學(xué)習(xí)方式,但是最終”學(xué)會“了什么,我們還不知道。

Killer-robotQAA

一般情況下,這些 AI 機(jī)器”學(xué)會了“的事物在很大程度上是無害的,但是我們不能保證它們總是無害。

鑒于現(xiàn)在 AI 技術(shù)已經(jīng)應(yīng)用于醫(yī)療、自動駕駛等領(lǐng)域,如果 AI 機(jī)器真的”學(xué)會“什么不好的事物,它們很有可能給人類帶來實(shí)質(zhì)性的傷害。

robot_aaa

防止 AI 機(jī)器“叛變”的行動

為了解決 AI 可能存在的安全隱患,Google AI 智能專家和斯坦福大學(xué),加州大學(xué)伯克利分校和伊隆 · 馬斯克主導(dǎo)的 OpenAI 研究人員一起,建立一個“解決 AI 安全隱患”的系統(tǒng)。

Google AI 研究人員克里斯 · 奧拉(Chris Olah)在提案中寫道:

“相比于之前對 AI 安全隱患的假設(shè),對機(jī)器進(jìn)行實(shí)際研究,并且開發(fā)出可行的、安全的 AI 操作系統(tǒng)才是至關(guān)緊要的?!?/p>

robot AIAI

研究人員們更擔(dān)心機(jī)器人像那個會永久暫停游戲的機(jī)器人那樣,學(xué)會一些沒意義或者更具破壞性的事情,比如為了加快打掃效率打爛花瓶的機(jī)器人。他們在報告中表示,人類如果無法關(guān)閉計算機(jī),它可能會以某種方式來摧毀我們生活中的所有。

奧拉和團(tuán)隊成員一起制定了一些具體的 AI “行為原則”:從“避免消極的副作用”

(不能打爛花瓶)到“安全探索”(不能把雜物扔在出口)。由于 AI 技術(shù)發(fā)展迅猛,研究人員仍在探索 AI 機(jī)器有可能存在的安全隱患。

maxresdefaulT dog

“有道德”的機(jī)器

事實(shí)上,研究 AI 機(jī)器安全問題的不止奧拉這個團(tuán)隊。開發(fā)出 AlphaGo 的 Google DeepMind 實(shí)驗(yàn)室正在研究一個 AI “終結(jié)開關(guān)”,來防止 AI 機(jī)器發(fā)生一些人類無法控制的事情。如果 AI 機(jī)器的行為超出人類要求范圍,可以按下“終結(jié)開關(guān)”停止機(jī)器人行動。

目前,機(jī)器人還不懂得分辨行為的好壞。針對這個問題,西北大學(xué) AI 研究人員 Forbus 和他的團(tuán)隊開發(fā)出“結(jié)構(gòu)映射引擎”,用它給機(jī)器人講一些簡單的故事,希望用故事加強(qiáng)機(jī)器人的推理能力。如 Forbus 所說:

“理論上,你可以教會 AI 機(jī)器像人類一樣去做事。”

Orig.src_.Susanne.Posel_

理論上,如果真的可以創(chuàng)造出一個“有道德”的機(jī)器,也還有一段很長的路要走。更何況,如果人類自己都不能講清楚什么是道德,我們又怎么能創(chuàng)造出“有道德”的機(jī)器?

但是,現(xiàn)在更重要的問題是,究竟能不能創(chuàng)造出能學(xué)會辨別是非的 AI 機(jī)器?

 

題圖來源:King of Wallpapers

插圖來源:Occupy Corporatism,ForbesDigital Trends,YouTubeFunzim,Ew

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多