|
有軌電車難題(Trolleyproblem)或稱電車問題,是英國哲學(xué)家菲利帕·富特1967年首次提出的一個(gè)倫理學(xué)思想實(shí)驗(yàn)。該問題的大致內(nèi)容是:假設(shè)你看到一輛剎車壞了的有軌電車即將撞上前方軌道上的5個(gè)人,而旁邊的備用軌道上只有1個(gè)人,如果你什么都不做,5個(gè)人會(huì)被撞死,而你手邊有一個(gè)按鈕,按下按鈕車就會(huì)駛?cè)雮溆密壍乐蛔菜?個(gè)人。你是否應(yīng)該犧牲這1個(gè)人的生命而拯救另外5個(gè)人?菲利帕·富特還提出了另外一個(gè)假設(shè),假如殺掉1個(gè)人,能夠制取救活五個(gè)人的靈藥,那么你是否支持殺掉這個(gè)人呢? 這個(gè)問題后來在流傳中又產(chǎn)生了各種版本。比如有一個(gè)版本是假設(shè)你站在天橋上,看到有一臺(tái)剎車損壞的電車,在軌道前方,有5個(gè)正在工作的人,他們不知道電車正向他們沖來。一個(gè)胖子正站在你身邊,你發(fā)現(xiàn)他的巨大體形與重量正好可以擋住電車讓電車出軌,不致于撞上那五個(gè)工人。你是否應(yīng)該動(dòng)手,把這個(gè)胖子從天橋上推落阻擋電車,以拯救那5個(gè)工人。 還有的版本把正在列車行駛軌道上的5個(gè)人設(shè)定為違規(guī)在鐵路上玩耍的頑童,而另外一條岔道上是正常作業(yè)的鐵路工人。你需要選擇是否要撞死1名正在正常工作的工人來拯救5名在鐵道上違規(guī)玩耍的孩子的性命。 這個(gè)兩難選擇不僅僅存在于思想實(shí)驗(yàn)中,在道路交通中司機(jī)有時(shí)就會(huì)直面類似的選擇。比如滿載乘客高速行駛的大客車遭遇違規(guī)橫穿高速公路的行人時(shí),如果司機(jī)采取緊急制動(dòng)措施那么極有可能導(dǎo)致大客車失控車毀人亡,如果在保證大客車不至于失控的前提下采取安全制動(dòng)措施那么行人可能會(huì)被直接撞死,在電光火石之間大客車司機(jī)會(huì)如何抉擇呢? 現(xiàn)在,類似的道德考量也擺到了為自動(dòng)駕駛汽車設(shè)計(jì)AI的工程師們的面前。自從工程師們開始開發(fā)自動(dòng)駕駛汽車以來,人們就一直很關(guān)心如果自動(dòng)駕駛汽車面臨類似的不可避免地會(huì)發(fā)生致命事故的情況需要抉擇應(yīng)該殺死誰的道德問題時(shí),算法或AI該如何解決。 最近的研究表明,對于汽車制造商而言,這個(gè)問題可能比人們以前認(rèn)為的更難以回答,因?yàn)椴煌瑖业娜藗兊牡赖缕貌町惡艽蟆?/p> 哈佛大學(xué)和麻省理工學(xué)院的研究人員曾經(jīng)開發(fā)了一款在線游戲,模擬了各種不可避免的致命車禍的情況。他們要求來自200多個(gè)國家的約4000萬人在各種事故結(jié)果之間作出選擇,例如是否殺死行人而不是汽車的乘客。該研究結(jié)果揭示了在不同的文化族群中人們的道德偏好存在明顯差異。例如,在“南方群體”(包括大部分拉丁美洲和一些前法國殖民地)中,人們強(qiáng)烈傾向于優(yōu)先拯救女性而非男性?!皷|部群體”(包括許多伊斯蘭國家以及中國、日本和韓國)更傾向于優(yōu)先照顧老年人。 該項(xiàng)研究人員最后認(rèn)為這些信息應(yīng)該能夠?qū)ψ詣?dòng)駕駛汽車的開發(fā)者有參考價(jià)值。然而實(shí)際情況真的如此么嗎? 這項(xiàng)研究雖然強(qiáng)調(diào)了全球不同文化背景的人群在道德選擇方面有不同偏好,但它也強(qiáng)調(diào)了(長期以來存在的人們)對人工智能的誤解,以及人工智能實(shí)際上可以解決什么問題。鑒于目前在自動(dòng)駕駛汽車中使用的人工智能技術(shù),讓自動(dòng)駕駛的車輛做出道德決定的想法實(shí)際上是不切實(shí)際的。 目前的自動(dòng)駕駛汽車的工作原理是使用特定AI(專注于完成一項(xiàng)特定任務(wù)的人工智能)通過訓(xùn)練來控制汽車以便它能正確決定駕駛中如何行駛或何時(shí)制動(dòng)。這套系統(tǒng)設(shè)計(jì)有一系列的傳感器、攝像頭和距離測量激光器(激光雷達(dá)),它們可以為中央計(jì)算機(jī)提供信息。然后,計(jì)算機(jī)使用AI來分析這些輸入信息并發(fā)出駕駛指令。 盡管該技術(shù)目前看起來相對簡單,但在基本的駕駛?cè)蝿?wù)中自動(dòng)駕駛汽車的表現(xiàn)毫無疑問將會(huì)超越人類。然而,讓自動(dòng)駕駛汽車對于“電車難題”這種即使是最具道德感的人也無法在事故瞬間做出道德決斷的難題作出道德判定是不現(xiàn)實(shí)的。如果期望能讓自動(dòng)駕駛AI對這種道德判斷問題作出合乎道德要求的決斷,那么需要對自動(dòng)駕駛汽車進(jìn)行復(fù)雜的編程,而那已經(jīng)屬于“一般人工智能”(General AI)了。 一般人工智能相當(dāng)于那種使人類之所以成為人類的東西。它是交談、欣賞音樂、發(fā)現(xiàn)有趣事物或做出道德判斷的能力。由于人類思想和情感的復(fù)雜性,目前還不可能開發(fā)出這種一般人工智能。至于那種能夠作出符合人類倫理的道德判斷的自動(dòng)駕駛汽車,估計(jì)幾十年之內(nèi)都是不可能實(shí)現(xiàn)的。 這項(xiàng)研究的另一個(gè)問題在于參與者被要求判斷的許多情況都是不切實(shí)際的。在一個(gè)與“電車難題”類似的情景中,參與者被問到如果剎車失靈,汽車應(yīng)該撞死誰:3名乘客(1名成年男子,1名成年女子和1名男童)或3名老年行人(2名男子和1名女子)。在回答這些問題時(shí),參與者可以仔細(xì)考慮這些問題。但是在大多數(shù)現(xiàn)實(shí)生活的類似場景下,司機(jī)在事故發(fā)生時(shí)是沒有時(shí)間在瞬間做出這樣思考的。這意味著這種(基于文化的對比)是無效的。以目前自動(dòng)駕駛汽車的AI技術(shù)來說,車輛也無法針對這種情況做出判斷。目前的自動(dòng)駕駛汽車具有復(fù)雜的傳感能力,可以將行人與其他類似物體區(qū)分開來,例如燈柱或路標(biāo)。研究者認(rèn)為,自動(dòng)駕駛汽車將來也許應(yīng)該能夠做出更復(fù)雜的區(qū)分。例如,它們可以識(shí)別出那些被認(rèn)為“對社會(huì)更有價(jià)值的人”,比如醫(yī)生或運(yùn)動(dòng)員,并選擇在類似情景中優(yōu)先保證他們的生命安全。事實(shí)上,讓汽車做出如此高級的判斷已經(jīng)屬于類人類智慧的一般人工智能了,目前這是不可能實(shí)現(xiàn)的。而另外一個(gè)更重要的問題是:這樣做是否是可取的?如果未來真的具有通過對汽車進(jìn)行編程來決定在事故中哪些人享有優(yōu)先生命權(quán)的技術(shù),筆者也認(rèn)為這應(yīng)該是被禁止的。生命的價(jià)值不應(yīng)該由研究中確定的偏好來決定,無論你的研究樣本量有多大。 在最基本的自動(dòng)駕駛模型中,自動(dòng)駕駛汽車的設(shè)計(jì)目的在于盡可能避免發(fā)生事故。如果無法避免事故的發(fā)生,則將碰撞速度降至最低。與人類一樣,AI無法在不可避免的事故發(fā)生之前作出道德決定。但是自動(dòng)駕駛汽車將比人類駕駛員更安全,因?yàn)樗鼈兏鼘Wⅲ軌蚋斓刈龀龇磻?yīng),并且在事故情況下將充分利用汽車的制動(dòng)系統(tǒng)功能。 目前,自動(dòng)駕駛汽車設(shè)計(jì)師面臨的最大道德挑戰(zhàn)是,確定何時(shí)有足夠的證據(jù)表明通過模擬和受控的道路測試(controlled on-road testing)自動(dòng)駕駛汽車的安全行為可以引入到正式的道路行駛中。 但這并不意味著它們是“道德的”,或者很快就會(huì)如此。這么說是混淆了完成駕駛?cè)蝿?wù)的特定人工智能和一般人工智能的區(qū)別,而一般人工智能在我們的有生之年很可能都不會(huì)出現(xiàn)。 最終,自動(dòng)駕駛汽車將比人類駕駛更安全。設(shè)計(jì)師將通過設(shè)計(jì)實(shí)現(xiàn)這一目標(biāo),盡可能避免事故,在不發(fā)生事故的地方減少損失。然而,汽車卻不能做出任何甚至人類自身也無法做出的道德決定(這種想法仍然是一種毫無根據(jù)的幻想),我們不應(yīng)該對它抱有希望。相反,我們應(yīng)該把注意力集中在安全上,對此我們能夠有足夠的信心。 |
|
|