小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

三個(gè)指標(biāo)幫你量化算法的公平性

 挑燈看劍r7wtm5 2019-07-19
全文共

1931

字,預(yù)計(jì)學(xué)習(xí)時(shí)長(zhǎng)

4

分鐘

三個(gè)指標(biāo)幫你量化算法的公平性

圖片來源:pexels.com/@rawpixel

自動(dòng)化和智能操作已經(jīng)可以越來越深度地幫助人們工作。隨著人工智能越來越多地應(yīng)用于工業(yè)領(lǐng)域的產(chǎn)品和研究,其現(xiàn)在可以更好地專注于需要判斷力和創(chuàng)造力的管理職能。這意味著曾經(jīng)需要人類做出的關(guān)鍵決策,現(xiàn)在都可以通過算法操作決定了。從化工、采礦、石油和天然氣等資產(chǎn)密集型行業(yè),到媒體和時(shí)尚等創(chuàng)意密集型行業(yè),皆是如此。

要驅(qū)動(dòng)大規(guī)模數(shù)字產(chǎn)品和服務(wù)的應(yīng)用,需要的可不僅僅是自動(dòng)化?;ヂ?lián)網(wǎng)把人類和機(jī)器連接在一起,產(chǎn)生了海量的數(shù)據(jù),為了處理這些數(shù)據(jù),以及應(yīng)對(duì)時(shí)刻變化的社會(huì),需要借助公平負(fù)責(zé)的算法。此外,預(yù)計(jì)到2030年,人工智能將為全球經(jīng)濟(jì)增加13萬億美元。毫無疑問,用算法做決定會(huì)變得越來越普遍。

回顧一條大家都懂的機(jī)器學(xué)習(xí)定義——算法解析數(shù)據(jù),從數(shù)據(jù)中學(xué)習(xí),然后用所學(xué)知識(shí)做出明智的決定。

因此可以知道,數(shù)據(jù)科學(xué)家、工程師和架構(gòu)師設(shè)計(jì)和構(gòu)建算法的方法是訓(xùn)練算法解析正確的數(shù)據(jù),以大致確保兩件事:

三個(gè)指標(biāo)幫你量化算法的公平性

精確度

三個(gè)指標(biāo)幫你量化算法的公平性

圖片來源:pexels.com/@rawpixel

精確度本身就是一個(gè)學(xué)習(xí)的過程。為精確度準(zhǔn)備準(zhǔn)確的數(shù)據(jù)是一個(gè)挑戰(zhàn),因?yàn)樗荒茉诮?jīng)過一輪又一輪的建模和更改訓(xùn)練數(shù)據(jù)之后才能實(shí)現(xiàn)。正確數(shù)據(jù)的定義因此會(huì)根據(jù)不同情況而顯著變化。

例如,想要識(shí)別大概率會(huì)在奢侈時(shí)尚精品店購(gòu)物的客戶,和大概率會(huì)在素食餐廳點(diǎn)一道特定餐品的客戶,這二者的算法需要不同的設(shè)計(jì)和架構(gòu)。盡管這兩種算法會(huì)有一些共通點(diǎn),比如說,和其他因素相比,它們的最新消費(fèi)、消費(fèi)頻率、和貨幣面值可能相通,但這兩個(gè)算法的某些變量也會(huì)截然不同,這取決于業(yè)務(wù)的性質(zhì)。

三個(gè)指標(biāo)幫你量化算法的公平性

公平性

三個(gè)指標(biāo)幫你量化算法的公平性

隨著算法越來越公平,在決策過程中個(gè)人判斷的影響會(huì)逐漸消失。這是最重要也是最棘手的挑戰(zhàn)。因?yàn)樵趯W(xué)習(xí)過程中,這些算法很有可能會(huì)變得不那么公平,因?yàn)樗鼈兪怯扇祟惥幊痰?,而人類的價(jià)值觀、想法和觀點(diǎn)會(huì)隨之轉(zhuǎn)移到這些人工智能軟件中。

這意味著為了能理解機(jī)器的自動(dòng)判斷,需要透明公開復(fù)雜的程序。有人害怕在金融、法律和技術(shù)公司使用機(jī)器自動(dòng)決策,這是因?yàn)槿藗優(yōu)樨潏D個(gè)人利益,常常利用其決策幫助自己獲利,并濫用機(jī)密信息。

為什么算法的公平性具有挑戰(zhàn)性?

算法的偏差反映了社會(huì)混亂的過去。所有被刪除的偏差可能仍潛伏在數(shù)據(jù)中,等著重新出現(xiàn)的機(jī)會(huì),這在一定程度上是因?yàn)?,人們無意間把這些偏差編入了軟件,而算法會(huì)放大這些偏差。

從表面上看,算法偏差似乎是一個(gè)可以用計(jì)量經(jīng)濟(jì)學(xué)和統(tǒng)計(jì)學(xué)方法解決的工程問題。然而,想要確保一個(gè)公正、公平而又合乎倫理的結(jié)果,不僅僅要面對(duì)來自數(shù)據(jù)科學(xué)的挑戰(zhàn)。由于設(shè)置人工智能學(xué)習(xí)程序需要人工干預(yù),因此需要巨大的責(zé)任和堅(jiān)韌的信念,以設(shè)置出最為公平的程序。

三個(gè)指標(biāo)幫你量化算法的公平性

如何量化公平?

在數(shù)據(jù)科學(xué)中,有很多度量標(biāo)準(zhǔn)和方法可供選擇。

公平性和精確度之間的權(quán)衡是一個(gè)重要的考慮因素。

為了確保公平性和準(zhǔn)確性,模型必須滿足以下兩個(gè)條件:

1. 一個(gè)通用模型,通過迭代逐步變?yōu)樘囟P?,以更好地適應(yīng)形勢(shì)。

2. 可靈活修改因素、變量和數(shù)據(jù),以確保得到公平的結(jié)果。

三個(gè)指標(biāo)幫你量化算法的公平性

基于這些考慮,建議結(jié)合以下三種方法,用以量化公平并保持良好的準(zhǔn)確性:

交互信息分析

主要針對(duì)用于訓(xùn)練模型的原始數(shù)據(jù)。理解受保護(hù)變量(不準(zhǔn)備在數(shù)據(jù)建模中使用的變量)和非受保護(hù)變量(準(zhǔn)備在數(shù)據(jù)建模中使用的變量)之間的關(guān)系是一個(gè)很好的度量標(biāo)準(zhǔn)。

例如,對(duì)決定是否能夠入圍面試名單的算法來說,不能在模型中使用性別這一變量,因?yàn)檫@是一個(gè)受保護(hù)變量。另一個(gè)受保護(hù)變量是種族,在模型中不應(yīng)通過種族,來決定某人是否能申請(qǐng)到助學(xué)貸款。

另一方面,像考試成績(jī)和按時(shí)付款這樣的變量并不是受保護(hù)變量,但是很不幸,這些變量可以成為一個(gè)代理變量,在數(shù)據(jù)的訓(xùn)練過程中暗示一個(gè)人的種族。如果把此度量標(biāo)準(zhǔn)與下一個(gè)度量標(biāo)準(zhǔn)結(jié)合起來,也許可以解決這個(gè)問題?——?差別性影響。

差別性影響

同樣針對(duì)訓(xùn)練數(shù)據(jù),揭示了變量對(duì)某一人群或某些項(xiàng)目結(jié)果的重要性。通過確保每個(gè)集群的每個(gè)變量的重要性都差不多,可以幫助確保所有集群得到平等的對(duì)待。在數(shù)據(jù)訓(xùn)練過程中,有一種能力在許多情形下都有增強(qiáng):根據(jù)數(shù)據(jù)集中其他變量預(yù)測(cè)受保護(hù)變量的能力。

比如,在很多情況下,一個(gè)人的性別可以根據(jù)考試成績(jī)來預(yù)測(cè),這就在算法中產(chǎn)生了偏差。通過在迭代過程中修改數(shù)據(jù),并減輕某些變量對(duì)預(yù)測(cè)受保護(hù)變量結(jié)果的影響,可以有選擇地降低確定受保護(hù)變量的預(yù)測(cè)能力。

預(yù)測(cè)性奇偶校驗(yàn)位

主要用于調(diào)整模型結(jié)果,以確保平等和公平。其主要目標(biāo)是降低錯(cuò)誤率,或預(yù)測(cè)錯(cuò)誤的比率,并確保會(huì)降低數(shù)據(jù)集中所有集群的錯(cuò)誤率。

有時(shí),算法會(huì)忽略一個(gè)社會(huì)維度,不符合道德標(biāo)準(zhǔn),或者忽略一些商業(yè)目標(biāo)。在這種情況下,完全透明公開這些復(fù)雜的算法將使人工智能走向大眾化,讓更負(fù)責(zé)、更道德、更實(shí)用的算法成為可能。

三個(gè)指標(biāo)幫你量化算法的公平性

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多