|
著名科幻作家阿西莫夫在其作品中為機(jī)器人制定了三大法則,已經(jīng)超越科幻成為人們心目中機(jī)器人應(yīng)該遵守的不二法則。隨著人工智能的迅猛發(fā)展,機(jī)器在未來(lái)幾十年內(nèi)可能會(huì)達(dá)到人類(lèi)的智能水平,已被許多科學(xué)家認(rèn)為是不可避免的趨勢(shì)。一旦達(dá)到這一點(diǎn),機(jī)器人就可以改造自己,并創(chuàng)建其它同類(lèi),甚至制造出被稱為超級(jí)智能的更強(qiáng)大AI。如何確保機(jī)器人為人類(lèi)利益服務(wù),而不是像電影《終結(jié)者》里一樣,將人類(lèi)文明終結(jié),已經(jīng)不再是科幻作品里的紙上談兵,而是必須納入議事日程的重要課題。 2017年1月,在加利福尼亞州阿西洛馬舉行的Beneficial AI會(huì)議上,特斯拉CEO埃隆·馬斯克、DeepMind創(chuàng)始人戴米斯·哈薩比斯以及近千名人工智能和機(jī)器人領(lǐng)域的專家,聯(lián)合簽署了阿西洛馬人工智能23條原則,呼吁全世界在發(fā)展人工智能的同時(shí)嚴(yán)格遵守這些原則,共同保障人類(lèi)未來(lái)的利益和安全。著名物理學(xué)家霍金和馬斯克在本周公開(kāi)聲明支持這一系列原則,以確保擁有自主意識(shí)的機(jī)器保持安全,并以人類(lèi)的最佳利益行事。 阿西洛馬AI原則分為三大類(lèi)23條。第一類(lèi)為科研問(wèn)題,共5條,包括研究目標(biāo)、經(jīng)費(fèi)、政策、文化及競(jìng)爭(zhēng)等;第二類(lèi)為倫理價(jià)值,共13條,包括AI開(kāi)發(fā)中的安全、責(zé)任、價(jià)值觀等;第三類(lèi)為長(zhǎng)期問(wèn)題,共5條,旨在應(yīng)對(duì)AI造成的災(zāi)難性風(fēng)險(xiǎn)。 對(duì)比阿西莫夫的機(jī)器人三大法則:第一法則,機(jī)器人不得傷害人類(lèi),或因不作為使人類(lèi)受到傷害;第二法則,除非違背第一法則,機(jī)器人必須服從人類(lèi)的命令;第三法則,在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。我們可以發(fā)現(xiàn),雖然阿西洛馬AI23原則沒(méi)有阿西莫夫機(jī)器人三原則簡(jiǎn)潔明了,但它是人類(lèi)進(jìn)入人工智能時(shí)代的重要宣言,是指導(dǎo)人類(lèi)開(kāi)發(fā)安全AI的重要指南,受到了AI行業(yè)的廣泛支持。 但危機(jī)仍然存在,未來(lái)仍不確定,馬斯克在會(huì)議發(fā)言中說(shuō),我們正在走向超級(jí)智能,也有可能終結(jié)人類(lèi)文明。當(dāng)計(jì)算機(jī)開(kāi)始自己做決定,我們?nèi)绾尾拍艽_保它們與人類(lèi)的價(jià)值觀相一致?此前我們已經(jīng)看到了機(jī)器在學(xué)習(xí)中的偏見(jiàn),微軟的聊天機(jī)器人chatbot曾發(fā)表種族言論,特斯拉的汽車(chē)AI造成致命事故。墨菲定律說(shuō),任何一個(gè)事件,只要具有大于零的概率,它就必定會(huì)發(fā)生。我們或許也可以說(shuō),一個(gè)受控制的系統(tǒng),不管如何控制,最后終會(huì)崩潰。人工智能會(huì)是這樣嗎?天網(wǎng)已經(jīng)啟動(dòng)了嗎?文明終將面臨最后的裁決,勝,則榮,敗,則滅!在卡達(dá)爾肖夫的宇宙文明等級(jí)理論中,人類(lèi)一旦發(fā)展到II類(lèi)文明,就沒(méi)有任何災(zāi)難能造成文明的滅絕,希望我們可以通過(guò)阿西洛馬AI23原則,迎來(lái)人類(lèi)文明發(fā)展的終極勝利。 阿西洛馬人工智能原則原文:https:///ai-principles/ |
|
|
來(lái)自: 徐德文科學(xué)頻道 > 《待分類(lèi)》