小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

人類本性都有傲慢與偏見,那么人工智能會(huì)有偏見嗎?

 歐能歐陽(yáng)娜娜 2019-06-25

人與人之間總是有或多或少的刻板印象,如民族、膚色、教育背景、性別等。在人們的心目中,地方團(tuán)體常常是陳詞濫調(diào)。例如,女性應(yīng)該溫和聽話,工程技術(shù)人員大多是男性,白人比黑人有更高的智力等等。每個(gè)人都是獨(dú)立的個(gè)體。人們對(duì)他人有不同的態(tài)度和看法是正常的。出乎意料的是,人工智能也有“刻板印象”。

最近,Facebook的人工智能實(shí)驗(yàn)室進(jìn)行了一項(xiàng)有趣的新研究。他們發(fā)現(xiàn),人工智能偏見不僅存在于國(guó)家內(nèi)部,也存在于國(guó)家之間。

研究人員測(cè)試了五種流行的現(xiàn)成的對(duì)象識(shí)別算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,以了解每個(gè)程序的效果。用于測(cè)試的數(shù)據(jù)集來(lái)自不同國(guó)家的家庭,包括窮人和窮人,包括117個(gè)類別,從鞋子、肥皂到沙發(fā)。

在這項(xiàng)研究中,研究人員發(fā)現(xiàn),當(dāng)被要求識(shí)別低收入家庭時(shí),目標(biāo)識(shí)別算法的準(zhǔn)確度比高收入家庭低10%。隨著月收入的增加,誤差也會(huì)增加。特別是對(duì)于谷歌、微軟和亞馬遜來(lái)說(shuō),低收入家庭識(shí)別算法的準(zhǔn)確性很低。

與索馬里和布基納法索相比,該算法在識(shí)別美國(guó)產(chǎn)品方面的準(zhǔn)確度提高了15-20%。

這種現(xiàn)象有很多原因。最常見的原因是,在創(chuàng)建算法時(shí),通常會(huì)受到相關(guān)工程師的生活和背景的影響。這些人大多來(lái)自高收入階層的精英階層,他們的思想和觀念都是基于他們的思想和觀念,人工智能算法也是基于他們的思想和觀念。

人工智能(ai)具有強(qiáng)大的計(jì)算能力,在算法的基礎(chǔ)上,可以方便地獲取海量數(shù)據(jù)和識(shí)別信息。然而,令人擔(dān)憂的是,它的偏見不僅在物體的鑒定上有偏見,而且在種族和性別歧視上也有偏見。

研究人員測(cè)試了微軟、IBM和Facebook的人臉識(shí)別功能。他們發(fā)現(xiàn)白人男性的正確率高于99%,而黑人女性的錯(cuò)誤率為47%。

亞馬遜開發(fā)了一個(gè)人工智能程序來(lái)阻止簡(jiǎn)歷的選擇,這也顯示了對(duì)女性的歧視。選擇簡(jiǎn)歷后,男性比女性多。包含女性角色的簡(jiǎn)歷的權(quán)重將會(huì)降低,甚至降低了兩所女子學(xué)院的研究生評(píng)級(jí)。可見人工智能也是有自我選擇,和不可磨滅的“歧視”。不過(guò)在另一方面人工智能又顯得極為平等,比如最近大火的人工智能機(jī)器人,它就完全可以做到對(duì)每一個(gè)人的態(tài)度都是平等的,不會(huì)因?yàn)槟阌绣X你的性別就改變對(duì)你的態(tài)度,他會(huì)像人一樣溫和做到有問(wèn)必答,及時(shí)遭受到批評(píng)也會(huì)虛心接受。電話機(jī)器人好不好用?這么多企業(yè)瘋搶的場(chǎng)面也回答了這個(gè)問(wèn)題。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多