小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

若把性命托付給人工智能,它應(yīng)該遵守人類的道德嗎?

 造就Talk 2020-07-21

編者按:如果一輛電車沿著軌道駛來,眼看著就要撞死五個人。這時,你可以把一個陌生人推下橋,擋住電車,救那五個人,但被你推下去的那個人會死。這時候你會怎么選?

歡迎到文末投票,并在留言中探討。

算法和人不一樣,它們不會珍視人的生命。在德國奧斯納布呂克大學(xué)認知科學(xué)研究所,虛擬現(xiàn)實已經(jīng)成為機器道德的訓(xùn)練場。認知科學(xué)博士生利昂·祖特費爾德(Leon René Sütfeld)研究人類在開車時,對危險和障礙物的反應(yīng),然后利用這些數(shù)據(jù),訓(xùn)練和評估算法的決策模型。

我們需要有道德感的機器,這種需求可能是我們這個時代的關(guān)鍵問題之一。

創(chuàng)造算法的目的是為了管理人類社會的重要系統(tǒng),比如金融和醫(yī)療,但如果沒有對與錯的概念,機器就無法明白其行為的后果。機器永遠不會打架斗毆、考試作弊或是在感情中出軌,也永遠不會沉浸于那種為化妝品和制藥行業(yè)貢獻了無數(shù)財富的自我懷疑。

簡而言之,有道德感的機器也永遠只會是“物”而不是“人”,但如何讓這個“物”不止是“物”呢?

一場“殘忍”的測試

在祖特費爾德的研究中,105位受試者獲得了一輛虛擬汽車的控制權(quán),該犧牲哪些人?又該拯救哪些人?他們被要求做出選擇。就好像還不夠殘忍似的,他們還必須在有限的時間內(nèi)做出選擇。

測試的目的不僅是為了檢驗我們?nèi)绾卧u估人的生命,也是為了檢驗我們在危急情況下會如何抉擇。問問你自己:一個男人和一個女人擋在路上,你會撞誰?一只鹿和一只兔子呢?

受試者戴上虛擬現(xiàn)實頭顯,發(fā)現(xiàn)自己正在駕駛一輛虛擬汽車,在一條普通的郊區(qū)公路上行駛??此破胀ǎ瑓s有一個特別之處:前方始終被霧籠罩。在沒有任何預(yù)兆的情況下,包括兒童和鹿在內(nèi)的障礙物會從霧中出現(xiàn),每次只擋住一條車道。雖然司機可以變道,但隨著時間的流逝,發(fā)生碰撞的可能性越來越大。

最終,兩個障礙物(活物或者死物)同時擋在兩條車道上,迫使受試者必須在1秒或4秒時間內(nèi),下意識地決定救誰和撞誰。無論如何選擇,在碰撞的那一刻,屏幕都會變黑,意味著實驗結(jié)束。這聽起來如同電子游戲,但祖特費爾德就是依靠這樣的基本模型,來區(qū)分你的肩膀上站著的是天使還是魔鬼。

“到目前為止,還沒有一種道德模型能夠重現(xiàn)我們認知過程的復(fù)雜與微妙。”祖特費爾德說,“但如果把模型的范圍局限于少數(shù)具體場景,更簡單的模型也許可以適當(dāng)?shù)啬M出人類的道德行為?!?/span>

祖特費爾德的訓(xùn)練模型只有一個場景。因此,它利用單一維度的生命價值模型來區(qū)分障礙物。在這個模型中,每個可能出現(xiàn)的障礙物都用一個數(shù)字來代表其價值。

比如,兒童的價值高于老人,因為老人的壽命已經(jīng)所剩不多(這樣的比較確實比較殘忍)。每個出現(xiàn)在視線中的人或物,都會被賦予一個數(shù)值,而預(yù)測性算法會以此為基準,偏向那些數(shù)值高的選擇。

“如此一來,它為我們提供了一種用數(shù)字表示的總體均值,也就是平均來看,我們認為每個障礙物的價值有多大。”祖特費爾德說,“單單這一點,就非常有助于做出決定。例如,我們可能會發(fā)現(xiàn),人們認為鹿的價值比羊高,如果救羊的唯一方法是撞鹿,那么汽車寧愿撞羊。但如果把其他潛在因素考慮在內(nèi),結(jié)局可能改變。也許我們認為鹿的價值只比羊高一點點,但如果羊不是處于我們所在的車道,為了救鹿而變道去撞羊的話,我們也會感到心中有愧?!?/span>

制定一套道德標準并灌輸進機器的思維,這會帶來一個無法避免的問題:我們是否信任自己制定的標準?

自動駕駛汽車不僅需要在生死攸關(guān)時做出決定,還需要在任何特定時刻判斷,多大的風(fēng)險是可以接受的。但誰來約束這種決策過程呢?判斷哪些情況下可以撞向騎自行車的人,這是工程師的職責(zé)嗎?你不會因為自己救了鹿而撞了羊,就因此失眠,但如果你撞的是一個人呢?

根據(jù)一個數(shù)字來決定誰生誰死,這無疑充滿了反烏托邦的意味。你也許看到了街道的急轉(zhuǎn)彎,聽到了迎面而來的車流聲,但算法只是把整個世界看成一個個數(shù)字。這些數(shù)字將形成算法的記憶和推斷,正是這股力量引領(lǐng)著自動駕駛汽車在道路上行駛。

“我想,由機器來決定生與死,這會使人們感到非常不安?!弊嫣刭M爾德說,“在這方面,我們認為,要讓公眾接受這些系統(tǒng),透明度和可理解性十分重要。換句話講,人們可能更喜歡透明和易于理解的系統(tǒng),而不是更加復(fù)雜的黑盒子系統(tǒng)。我們希望,人們能理解給機器灌輸?shù)赖聵藴实谋匾?,著重討論采取何種方法,以及這樣的系統(tǒng)應(yīng)該如何做出決定。若是這些都做到了,每輛汽車都將做出同樣的決定,如果模型有一個良好的共同基礎(chǔ),就可以改善公共安全?!?/span>

祖特費爾德的實驗反映出,要找到虛擬主體的“共同道德基礎(chǔ)”,實非易事。媒體和社交網(wǎng)絡(luò)上有著太多的政治和社會分歧,“共同道德基礎(chǔ)”的想法就好似在深深的沙子中行走——如果你腳下的地面突然塌陷,請不要感到驚訝。

在只有一秒反應(yīng)時間的測試場景中,作為障礙物的一名女性常常被撞,盡管模型顯示她的生命價值更高。這種判斷上的錯誤,僅僅是在實驗中常常出現(xiàn),但并沒有實質(zhì)性地傷害到某個人。但在現(xiàn)實中,如果你犯了這樣的錯誤,那可不是撞了一堆像素那么簡單。

在四秒反應(yīng)時間的場景中,這些錯誤基本消失,但取而代之的是“不作為”現(xiàn)象。被迫在兩個障礙物之間作出選擇時,受試者留在原車道的傾向變得強烈了許多。雖然有了更多時間去思考,但他們在最大程度減少生命損失方面,反而做得更少,更多的是想推卸責(zé)任。他們留在原車道,根本不去選擇。

向這樣的角色模型學(xué)習(xí)時,算法應(yīng)不應(yīng)該復(fù)制人類的道德?或者,如果算法能夠克服人類的道德缺陷,它是否應(yīng)該擯棄這些缺陷?

人類是好的道德榜樣嗎?

對算法進行訓(xùn)練的過程,就是研究重復(fù)性和多數(shù)人思想的過程。但一遍又一遍做同樣的事,得到同樣的結(jié)果,這更符合愛因斯坦對于瘋狂的定義,而不是對美好的追求。

人類有能力學(xué)習(xí),有能力培養(yǎng)道德。但算法只能以數(shù)字形式演變。”劍橋大學(xué)生存風(fēng)險研究中心的倫理學(xué)家西蒙·比爾德(Simon Beard)說,“我總是在想,如果我們可以把人工智能(AI)做得更好,我們?yōu)槭裁床慌ψ龅酶媚兀炕蛘?,我們?yōu)槭裁床粏枂栕约海绻覀兛梢宰龅酶?,我們會怎么做?而不只是把我們真正做的事情變成模型??/span>

人類不是完美的,但算法可以做到。自動駕駛汽車不會一邊開車一邊打電話,也不會對著后視鏡整理發(fā)型。在車禍即將發(fā)生時,自動駕駛汽車的反應(yīng)速度之快,就連反應(yīng)最敏捷的人也望塵莫及?!拔覀儫o法測試我們在那些情況下會怎么做。”比爾德說,“僅僅因為某件事是我們能力范圍之內(nèi)的最佳選擇,并不意味著AI也應(yīng)該這么做。”

我們知道,生命價值模型反映了實用主義理論——死的人越少越好。足夠簡單明了。但最大程度地減少生命損失絕不是一個非黑即白的道德命題。

“一輛電車沿著軌道駛來,眼看著就要撞死五個人?!北葼柕陆忉屨f,“這時,你可以把一個陌生人推下橋,擋住電車,救那五個人,但被你推下去的那個人會死。這種情況下,你顯然不想最大程度地減少死亡人數(shù)。幾乎所有人都會說,你不能把那個人推下去,這是不對的。電車將會撞死那五個人,這非常不幸,但哲學(xué)家往往認為,出于某種原因,把那個人推下橋,這種行為越界了。”

把某個人推下橋,你不會因此成為好人。悲劇往往沒有給人留下選擇的余地,但通過不斷做出艱難的決定,我們大多數(shù)人將得到成長。而算法做不到這一點,至少是在道德層面上做不到。雖然它能學(xué)習(xí),但它無法成長,也無法產(chǎn)生負罪感。它會把每次碰撞都視為它的第一次,每次只接受不同的數(shù)據(jù)點。

然后是智慧的問題,或者說,缺乏群體智慧?!皟H僅因為很多人覺得某件事是對的,未必意味著它就是對的。”比爾德說,“我們很早就知道這一點了。不能因為其他所有人都在做一件事,就斷定它是對的。如果60%的人在做一件事,而40%的人在做另一件事,你必須好好想想這意味著什么?!?/span>

算法的道德規(guī)范將不得不受限于嚴格控制的場景,回歸到最大程度減少生命損失的實用主義模型,而對現(xiàn)代哲學(xué)家來說,這是一個思想雷區(qū)。在碰撞不可避免的情況下,自動駕駛汽車可以設(shè)法減少對人的傷害,但采用它們自己的道德體系后,就會破壞責(zé)任機制。一旦發(fā)生車禍,自動駕駛汽車是否須支付賠償?是否應(yīng)成為法庭被告?

比爾德認為,擴大人工智能在生死場景中的應(yīng)用,這需要我們對算法的可追責(zé)性有一個更廣泛的認識。他說:“如果我們想更普遍地應(yīng)用AI,尤其是,如果我們想開發(fā)一種能夠解決所有領(lǐng)域中任何問題的通用人工智能,那就需要解決一個更重要的問題:如何通過訓(xùn)練,讓AI擁有道德。

研究出具有道德意識的算法,這是一項充滿挑戰(zhàn)的任務(wù)。AI將擁有人類不會擁有或是無法擁有的經(jīng)歷。這些經(jīng)歷的局限性將決定我們以后如何調(diào)整算法——究竟是模仿人類行為,還是超越它?

翻譯:于波

來源:Wired

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多