小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

人工智能,我憑什么相信你?

 譯言 2020-11-10

作者:Marianne Lehnis

譯者:Sara Yang

本文基于創(chuàng)作共同協(xié)議(BY-NC)在譯言發(fā)布


我們正處于人類歷史上一個(gè)前所未有的時(shí)期,人工智能機(jī)器所做的決定,將很快影響到我們生活的方方面面。但是如果我們不知道人工智能機(jī)器到底是如何做出決定的,又該怎么辦呢?

想象一下,當(dāng)申請(qǐng)健康保險(xiǎn)被拒絕,而公司只是簡單地將拒絕原因歸咎于其風(fēng)險(xiǎn)評(píng)估算法的時(shí)候。

或者,當(dāng)你申請(qǐng)抵押貸款被拒絕,但銀行不能確切地告訴你原因的時(shí)候。

或者更嚴(yán)重的,如果警察逮捕犯罪嫌疑人的行動(dòng)計(jì)劃僅僅是基于超級(jí)計(jì)算機(jī)進(jìn)行數(shù)據(jù)處理時(shí)預(yù)測模型發(fā)出的通知時(shí)。

當(dāng)人工智能(AI)冷酷決絕地飛速發(fā)展時(shí),當(dāng)其滲透到我們生活中越來越多的方面時(shí),科技行業(yè)開始擔(dān)心上述這些情況的發(fā)生。

人工智能正在大多數(shù)領(lǐng)域進(jìn)行試驗(yàn),包括醫(yī)學(xué)研究和診斷、無人駕駛車輛、國家監(jiān)察、軍事目標(biāo)對(duì)準(zhǔn)和刑事審判。

普華永道咨詢公司最近的一份報(bào)告預(yù)測:到2030年,人工智能將使全球經(jīng)濟(jì)增長157萬億美元。

但是這要我們付出什么樣代價(jià)呢?這些軟件算法變得如此復(fù)雜,以至于其創(chuàng)造者們也不能完全理解它們是如何給出那些答案的。

神經(jīng)網(wǎng)絡(luò)的出現(xiàn)——旨在模擬人類大腦的思維方式——涉及大量的相互連接的處理器,這些處理器可以處理大量的數(shù)據(jù),利用機(jī)器學(xué)習(xí)在數(shù)百萬個(gè)變量中形成斑點(diǎn)模式,最關(guān)鍵的是可以嘗試去回應(yīng)它們所學(xué)的知識(shí)。

這所帶來的驚人力量,將使天氣預(yù)報(bào)更加精確,也會(huì)使癌癥鑒定更加準(zhǔn)確。

但是慈善援助基金會(huì)政策和項(xiàng)目負(fù)責(zé)人Rhodri Davies說:“如果將這些系統(tǒng)用于投票或獲取公共服務(wù),我們就會(huì)發(fā)現(xiàn),其中往往會(huì)存在一些問題?!?/span>

定量研究經(jīng)理大衛(wèi)斯特恩所就職的G研究公司,主要利用機(jī)器學(xué)習(xí)來預(yù)測金融市場的價(jià)格。他警告說道:“近年來AI研究的迅速進(jìn)步涉及到了越來越多的數(shù)據(jù)驅(qū)動(dòng)的黑箱方法。

在當(dāng)前流行的神經(jīng)網(wǎng)絡(luò)方法中,其訓(xùn)練過程決定了數(shù)百萬個(gè)內(nèi)部參數(shù)的設(shè)置,這些參數(shù)以復(fù)雜的方式相互作用,并且很難進(jìn)行逆向工程和解釋。

機(jī)器人學(xué)”的另一個(gè)趨勢(shì)是“深度強(qiáng)化學(xué)習(xí)”,即“設(shè)計(jì)者簡單地指定系統(tǒng)的行為目標(biāo),讓機(jī)器人通過與環(huán)境直接交互來自動(dòng)學(xué)習(xí)。”他說。“這讓系統(tǒng)變得更加難以理解?!?/span>

因此,該行業(yè)正在探索讓算法可以更容易被理解,并能處于人類控制之下的方法。例如,美國國防部高級(jí)研究計(jì)劃局(DARPA)正在運(yùn)做一個(gè)“可解釋的人工智能項(xiàng)目”,而非盈利性的研究公司OpenAI,正致力于“發(fā)現(xiàn)并制定安全通用的人工智能路徑”。

這聽起來很合理,但是人工智能的一個(gè)優(yōu)點(diǎn)就是它能做人類所不能做的事情。如果我們最后又使其失去了這項(xiàng)優(yōu)勢(shì)又該怎么辦呢?

艾倫圖靈研究所的AI項(xiàng)目主任Adrian Weller認(rèn)為,是否要了解機(jī)器如何得出決定的過程,取決于這些決定的重要性。很多需要考慮的事項(xiàng)都可能比人工智能的可解釋性這一點(diǎn)更重要。

他說:“有時(shí)候某些問題可能比我們能否準(zhǔn)確地了解它的運(yùn)作方式更重要。例如:我們是否能夠確保一個(gè)系統(tǒng)可靠、安全且不存在差別對(duì)待地工作。

他說,當(dāng)涉及無人駕駛汽車或醫(yī)療診斷時(shí),擁有一臺(tái)更精確的機(jī)器并能拯救更多的生命可能比理解它的工作方式更為重要。

“對(duì)于醫(yī)療診斷,假設(shè)一個(gè)系統(tǒng)的平均準(zhǔn)確率能達(dá)到95%,雖然這一數(shù)據(jù)聽起來不錯(cuò),但是我仍然想知道它對(duì)我個(gè)人來說是否是準(zhǔn)確的,算法的可解釋將有助于理解這一點(diǎn)。

“但是如果我們有其他的方式可以確保它對(duì)我來說是準(zhǔn)確的,那么我可能就不會(huì)關(guān)系它的可解釋性。”

另一方面,當(dāng)利用人工智能來協(xié)助確定刑事判決中人們的被監(jiān)禁時(shí)長時(shí),他認(rèn)為理解這一決策的產(chǎn)生過程是很重要的。

Weller博士說:“如果一個(gè)算法的意見是我需要被囚禁六年,那么,我會(huì)想得到一個(gè)解釋,我需要知道這一算法是否遵循了適當(dāng)?shù)姆沙绦颍⒃谖矣挟愖h的時(shí)候,是否能夠允許挑戰(zhàn)這個(gè)算法?!?/span>

他補(bǔ)充道:“我贊同一些觀點(diǎn),即我們應(yīng)該要求公司明確算法所做的事情,特別是當(dāng)我們以為這一結(jié)論是人為的時(shí)候。”

如果沒有這些保障措施,人們就有可能在不知道原因的情況下受到不公平待遇,并變得“極度邊緣化”。

Cooley法律公司的合伙人馬克·迪姆認(rèn)為,如果我們中的很多人甚至不知道那些影響我們的決定背后是人工智能算法,那么這是與法律中的既定原則相沖突的。

“想象一下,在涉及到契約理論、允諾時(shí),如果你實(shí)際上都不能準(zhǔn)確的知道黑箱算法會(huì)產(chǎn)生什么結(jié)果?你如何為基于機(jī)器學(xué)習(xí)的某個(gè)結(jié)果做保證呢?”

為了解決透明度問題,歐盟的GDPR[一般數(shù)據(jù)保護(hù)條例]立法中指出,如果決策中使用了自動(dòng)化的過程,人們對(duì)其應(yīng)享有知情權(quán)。

迪姆解釋說“GDPR的自動(dòng)化決策概念是指,不應(yīng)該僅僅依靠自動(dòng)決策來影響一個(gè)數(shù)據(jù)主題的基本權(quán)利?!?/span>

我們有權(quán)進(jìn)行一些人為的解釋和監(jiān)督。但是如果相應(yīng)公司不能給出解釋呢?因此,這是一塊仍需在法庭上進(jìn)行測試的灰色地帶。

那么,當(dāng)人工智能做出有益的、但是我們可能無法理解的決策時(shí),我們是否愿意與超級(jí)智能機(jī)器一起工作呢?或者,當(dāng)犧牲了我們作為人類的權(quán)利和自由時(shí),我們是否將成為自動(dòng)化的奴隸?

大衛(wèi)·斯特恩說,“我們會(huì)非常舒適地坐在一個(gè)1mm厚的鋁管上,在30000英尺的高空穿梭,盡管我們對(duì)它運(yùn)作方式的了解非常有限,但是安全統(tǒng)計(jì)和監(jiān)管會(huì)使我們消除疑慮?!?/span>

他總結(jié)道:“我相信只要類似的監(jiān)管到位,并有足夠的安全保證,我們就會(huì)習(xí)慣坐在無人駕駛的汽車上,或者相信計(jì)算機(jī)對(duì)我們醫(yī)療結(jié)果的診斷?!?/span>

END

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多