小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

干貨滿滿,谷歌科研成果 2018 年年終總結(jié)

 馮仙森 2019-01-17

來(lái)自雷鋒網(wǎng)(leiphone-sz)的報(bào)道

雷鋒網(wǎng) AI 科技評(píng)論按:年終總結(jié)可能會(huì)遲到,但不會(huì)缺席!

圣誕節(jié) 元旦假期過(guò)后,谷歌資深 Fellow、谷歌 AI 負(fù)責(zé)人 Jeff Dean 代表所有谷歌的研究部門發(fā)出了他們的 2018 年度科研研究年終總結(jié)。這一年,谷歌的科研人員們?cè)谌斯ぶ悄?、量子?jì)算、計(jì)算圖形學(xué)、算法理論、軟件系統(tǒng)、TPU、開源軟件與數(shù)據(jù)集、機(jī)器人技術(shù)、AI 應(yīng)用、醫(yī)療保健等許多方面做出了許多新的成果,不僅有許多論文,更有許多實(shí)際的技術(shù)產(chǎn)品。雷鋒網(wǎng) AI 科技評(píng)論在 2018 年中也曾單獨(dú)報(bào)道過(guò)其中的許多項(xiàng)目。

同樣由 Jeff Dean 撰寫的 2017 年谷歌大腦年終總結(jié)見這里 上篇 下篇。如今谷歌把人工智能的相關(guān)研究開發(fā)拓展到了新品牌「谷歌 AI」下面,曾經(jīng)的谷歌大腦負(fù)責(zé)人 Jeff Dean 也就成為了谷歌 AI 的負(fù)責(zé)人。 

現(xiàn)在我們把這篇 Jeff Dean 代表全體谷歌科研人員撰寫的谷歌科研成果 2018 年年終總結(jié)全文翻譯如下。

谷歌資深 Fellow、高級(jí)副總裁、谷歌 AI 負(fù)責(zé)人 Jeff Dean

對(duì)于谷歌的研究團(tuán)隊(duì)來(lái)說(shuō),2018 年又是充滿激情和干勁的一年。我們的技術(shù)研究成果在許多個(gè)不同的方向上繼續(xù)開花結(jié)果,包括計(jì)算機(jī)科學(xué)方面的基礎(chǔ)科研成果和論文、科研結(jié)果在谷歌的更多新興方向中的應(yīng)用(比如醫(yī)療保健和機(jī)器人)、對(duì)開源軟件的貢獻(xiàn)以及和谷歌的產(chǎn)品開發(fā)團(tuán)隊(duì)之間的緊密協(xié)作,所有這些的目標(biāo)都是為了創(chuàng)建更多有用的工具和服務(wù)。下面我們來(lái)一起看看 2018 的一些成果,以及對(duì)未來(lái)的一年做一些展望。更詳細(xì)盡的匯總可以參見我們的 2018 年論文發(fā)表清單(https://ai.google/research/pubs/?year=2018)。



道德準(zhǔn)則和 AI

在過(guò)去的幾年中,我們共同見證了 AI 領(lǐng)域的重大進(jìn)步,欣喜地看到了 AI 對(duì)谷歌的產(chǎn)品產(chǎn)生了積極的影響,這些產(chǎn)品也在日常生活中為谷歌的數(shù)十億用戶提供了更多幫助。對(duì)于我們這些在 AI 領(lǐng)域工作的人來(lái)說(shuō),我們非常在意 AI 是否成為了這個(gè)世界變得更好的推動(dòng)力 —— 也就是說(shuō),它的使用是符合人類道德的,它用來(lái)解決的問(wèn)題也是對(duì)這個(gè)社會(huì)有益的。

2018 年我們發(fā)布了谷歌 AI 準(zhǔn)則,它也帶有一系列負(fù)責(zé)任的 AI 應(yīng)用的示范樣本,描繪出了 AI 應(yīng)用實(shí)踐的技術(shù)指導(dǎo)。這些準(zhǔn)則和示范也一同構(gòu)成了評(píng)價(jià)我們谷歌自己的 AI 產(chǎn)品開發(fā)的體系框架,我們希望別的組織機(jī)構(gòu)也能夠運(yùn)用這些準(zhǔn)則規(guī)范他們自己的思路。需要說(shuō)明的是,由于這個(gè)領(lǐng)域的發(fā)展速度飛快,我們?cè)谀承?zhǔn)則下提供的示范樣本(比如「為了避免產(chǎn)生和加強(qiáng)不公平的偏見」、「為了對(duì)人類可解釋」),也會(huì)隨著我們?cè)跈C(jī)器學(xué)習(xí)公平性和模型可解釋性等新領(lǐng)域開展研究而不斷變化、不斷更新。

這些研究研究成果反過(guò)來(lái)也會(huì)讓谷歌的產(chǎn)品不斷進(jìn)步,讓它們更具包容性、更少帶有偏倚,比如我們就已經(jīng)減少了谷歌翻譯中的性別偏倚,也探索并發(fā)布了內(nèi)容更為廣泛多樣的圖像數(shù)據(jù)集和模型(https://ai.google/tools/datasets/open-images-extended-crowdsourced/),以便讓計(jì)算機(jī)視覺(jué)模型在整個(gè)地球中更加多樣化的環(huán)境中都可以工作。更進(jìn)一步地,這些努力也讓我們得以把最佳實(shí)踐分享給更廣泛的研究群體,比如我們的機(jī)器學(xué)習(xí)快速課程中的 Fairness Module。



造福整個(gè)社會(huì)的 AI

如今大家都已經(jīng)知道,在社會(huì)的許多方面、在許多重要的社會(huì)問(wèn)題上,AI 都有潛力帶來(lái)劇烈的影響。我們?cè)?AI 洪水預(yù)測(cè)方面的研究就是一個(gè)絕佳的例子,它展示了 AI 可以如何在真實(shí)世界的問(wèn)題上幫助人類。在多個(gè)谷歌內(nèi)部團(tuán)隊(duì)的合作下,這項(xiàng)研究的目標(biāo)被定義為「為洪水發(fā)生的可能性和可能覆蓋地區(qū)提供準(zhǔn)確、細(xì)時(shí)間粒度的信息」,而那些在洪水高危地區(qū)生活的人們就可以根據(jù)這些信息作出更好、更及時(shí)的判斷,能更好地保護(hù)自己、保護(hù)自己的財(cái)產(chǎn)。

洪水預(yù)警系統(tǒng)已經(jīng)在印度的部分地區(qū)投入使用

另一個(gè)例子是我們研究如何預(yù)測(cè)地震的余震,我們展示了機(jī)器學(xué)習(xí)模型預(yù)測(cè)余震地址可以比傳統(tǒng)的基于物理模型的方法準(zhǔn)確得多。這項(xiàng)研究還有一個(gè)也許影響更為深遠(yuǎn)的方面,那就是因?yàn)槲覀冊(cè)O(shè)計(jì)的機(jī)器學(xué)習(xí)模型是具備可解釋性的,科學(xué)家們得以在這個(gè)模型的幫助下對(duì)余震的活動(dòng)作出更好的觀察,這不僅讓余震的預(yù)測(cè)變得更加準(zhǔn)確,也讓我們對(duì)余震本身有了更好的了解。

AI投研邦 「AI投研邦」 小程序

谷歌之外也有許多我們的伙伴。許多研究者和谷歌的研究員、工程師一起借助 TensorFlow 之類的開源軟件鉆研各種各樣的科學(xué)和社會(huì)學(xué)問(wèn)題,比如用 CNN 識(shí)別座頭鯨的聲音,發(fā)現(xiàn)新的系外行星,識(shí)別生病的木薯等等。

為了鼓勵(lì)這個(gè)領(lǐng)域產(chǎn)生更多的新點(diǎn)子,我們與 Google.org 一同發(fā)起了「谷歌 AI 社會(huì)影響競(jìng)賽」,參加比賽的個(gè)人和組織研究需要一些從想法轉(zhuǎn)化為現(xiàn)實(shí)之后可能會(huì)帶來(lái)重大社會(huì)影響的項(xiàng)目,然后他們可以獲得總數(shù)為 2500 萬(wàn)美元的資助資金,而且可以獲得谷歌研究科學(xué)家、工程師、其它專家的指導(dǎo)。



輔助性技術(shù)

在我們圍繞機(jī)器學(xué)習(xí)和計(jì)算機(jī)科學(xué)展開的研究中,有很大一部分都是希望幫助我們的用戶們更快、更高效地達(dá)到他們的目標(biāo)。通常這都需要科研團(tuán)隊(duì)和各種產(chǎn)品團(tuán)隊(duì)之間展開合作,研究成果也發(fā)布成為各種各樣的產(chǎn)品功能和設(shè)置。其中一個(gè)例子是谷歌 Duplex,這個(gè)系統(tǒng)的建設(shè)需要我們把自然語(yǔ)言處理、對(duì)話理解、語(yǔ)音識(shí)別、文本轉(zhuǎn)語(yǔ)音、用戶理解以及高效的用戶界面 UI 設(shè)計(jì)多個(gè)方面的研究成果集中整合,而它的最終效果是,只需要用戶對(duì)著自己的手機(jī)詢問(wèn)「能不能幫我預(yù)定明天下午 4 點(diǎn)做頭發(fā)」,一個(gè)虛擬助手就會(huì)替你打電話到理發(fā)店敲定相關(guān)的細(xì)節(jié)。

我還可以舉一些例子,比如智能寫作 Smart Compose這個(gè)工具會(huì)通過(guò)預(yù)測(cè)模型給出寫作提示,幫助用戶寫作郵件,寫作過(guò)程可以更快、更輕松;聲音搜索 Sound Search,它構(gòu)建在 Now Playing 功能的基礎(chǔ)上,可以快速、準(zhǔn)確地幫助用戶找到環(huán)境中正在播放的音樂(lè);還有安卓系統(tǒng)中的 Smart Linkify,它展示了我們可以使用運(yùn)行在移動(dòng)設(shè)備上的機(jī)器學(xué)習(xí)模型分析屏幕上正在顯示的文本,理解文本內(nèi)容之后把它劃分為不同種類的小節(jié),接著就可以直接點(diǎn)擊文本訪問(wèn)對(duì)應(yīng)的應(yīng)用程序。

Smart Linkify 智能地把連續(xù)的文本分成了一段地址 一個(gè)時(shí)間

我們目前的研究中一個(gè)重要的關(guān)注點(diǎn)就是讓谷歌助手這樣的工具支持更多的語(yǔ)言,以及讓系統(tǒng)更好地理解語(yǔ)義相似性,就是說(shuō)即便使用了完全不同的方式來(lái)表達(dá),我們也希望它能理解人們希望表達(dá)的概念和想法是相同的。我們?cè)谔嵘Z(yǔ)音合成質(zhì)量以及缺乏訓(xùn)練數(shù)據(jù)的文本轉(zhuǎn)語(yǔ)音任務(wù)中的研究成果,未來(lái)也可能為谷歌的產(chǎn)品增加新的功能。



量子計(jì)算

量子計(jì)算是一種正在逐漸發(fā)展壯大的計(jì)算范式,它有能力解決經(jīng)典計(jì)算機(jī)無(wú)法解決的非常困難的問(wèn)題。在過(guò)去的幾年中我們一直積極地在這個(gè)方向上進(jìn)行科學(xué)研究,我們也相信,量子計(jì)算機(jī)展現(xiàn)出解決多種問(wèn)題能力(所謂的量子霸權(quán))的那個(gè)時(shí)刻即將到來(lái),而這也將成為這個(gè)領(lǐng)域的分水嶺。2018 年里,我們的量子計(jì)算實(shí)驗(yàn)產(chǎn)生了一系列令人興奮的新成果,其中包括一個(gè)新的 72 位的量子計(jì)算設(shè)備 Bristlecone,它極大地拓展了量子計(jì)算機(jī)可以解決的問(wèn)題的大小。我們距離量子霸權(quán)的距離越來(lái)越近了。

位于 Santa Barbara 的谷歌量子 AI 實(shí)驗(yàn)室中,研究科學(xué)家 Marissa Giustina 正在安裝一塊 Bristlecone 芯片

我們也發(fā)布了 Cirq,這是一個(gè)為量子計(jì)算機(jī)開發(fā)的開源編程框架,我們也借助它探索了如何在量子計(jì)算機(jī)上運(yùn)行神經(jīng)網(wǎng)絡(luò)。最后,我們分享了研究量子處理器性能漲落的問(wèn)題的及經(jīng)驗(yàn)和技巧,也分享了關(guān)于「量子計(jì)算機(jī)有可能可以成為神經(jīng)網(wǎng)絡(luò)的計(jì)算性基礎(chǔ)設(shè)施」的想法。2019 年里,我們期待在量子計(jì)算空間里做出更多驚喜的成果。



自然語(yǔ)言處理

對(duì)于自然語(yǔ)言處理領(lǐng)域,2018 年里谷歌收獲頗豐,我們有許多科研成果,也有許多關(guān)注于產(chǎn)品的內(nèi)部團(tuán)隊(duì)合作成果(https://ai./search/label/Natural%20Language%20Understanding)。我們?cè)?2017 年發(fā)布的 Transformer 基礎(chǔ)上做了改進(jìn),得到了一個(gè)新的時(shí)間并行的模型版本,我們把它稱作 Universal Transformer,它在包括翻譯、語(yǔ)意推理等許多自然語(yǔ)言任務(wù)中都展現(xiàn)出了極大的性能提升。我們也開發(fā)了 BERT,這是首個(gè)深度雙向、無(wú)監(jiān)督的語(yǔ)言表示,它只需要在普通的文本語(yǔ)料上預(yù)訓(xùn)練,然后就可以通過(guò)遷移學(xué)習(xí)精細(xì)調(diào)節(jié)到許多種不同的自然語(yǔ)言任務(wù)上。相比之前的最佳表現(xiàn)的模型,BERT 在 11 種自然語(yǔ)言任務(wù)中都取得了顯著的表現(xiàn)提升。

在極具挑戰(zhàn)的 GLUE benchmark 中,相比之前的最佳水平模型,BERT 把分?jǐn)?shù)的絕對(duì)值提升了 7.6%

除了和許多谷歌內(nèi)部的產(chǎn)品團(tuán)隊(duì)合作開發(fā)了上文提到的 Smart Compose 和 Duplex 之外,我們也探索改進(jìn)了谷歌助手,讓它能夠更好地處理多語(yǔ)言混用的場(chǎng)景。我們的最終目的是希望所有的用戶都可以與它自然地用語(yǔ)言交流。



感知

我們?cè)诟兄矫娴难芯抗タ肆俗層?jì)算機(jī)理解圖像、聲音、音樂(lè)和視頻等有難度的問(wèn)題,同時(shí)也為圖像捕捉、壓縮、處理、創(chuàng)意表達(dá)以及增強(qiáng)現(xiàn)實(shí)提供了更多更有力的工具。2018 年,我們把新技術(shù)融合進(jìn)了谷歌照片 app,它可以更好地整理用戶在意的照片內(nèi)容,比如人和寵物。谷歌 Lens 和谷歌助手則可以幫助用戶了解自然世界、實(shí)時(shí)回答問(wèn)題,谷歌圖像中的 Lens 還有更多新功能。

我們?cè)?jīng)表示過(guò),谷歌 AI 的使命中有一個(gè)重要的方面就是要給人類賦能、讓他們從技術(shù)中受益,這一年中我們也對(duì)谷歌 API 做了許多升級(jí),改進(jìn)了它的功能、更新了它的基礎(chǔ)組件。一些例子包括谷歌云機(jī)器學(xué)習(xí) API 中的視覺(jué)和視頻的升級(jí)的新功能,以及通過(guò) ML Kit 實(shí)現(xiàn)的許多運(yùn)行在移動(dòng)設(shè)備上基礎(chǔ)組件,提供了面部識(shí)別相關(guān)一些功能。

谷歌 Lens 可以幫助你更好地了解身邊的世界。比如,Lens 就分辨出了這條小狗的種類

2018 年中,我們對(duì)學(xué)術(shù)研究的貢獻(xiàn)包括了深度學(xué)習(xí)三維場(chǎng)景理解方面的進(jìn)展,比如立體變換(stereo magnification,https:///abs/1805.09817),它可以為一個(gè)場(chǎng)景生成全新角度、而且具有逼真畫質(zhì)的圖像。我們也有一些持續(xù)進(jìn)行中的研究,可以更好地理解圖像和視頻,也就可以幫助用戶更好地發(fā)現(xiàn)、組織、增強(qiáng)以及改進(jìn)谷歌產(chǎn)品(谷歌圖像、YouTube、谷歌搜索等)中出現(xiàn)的圖像和視頻。

這一年中值得一提的改進(jìn)包括:用于快速聯(lián)合姿態(tài)估計(jì)以及人體實(shí)例分割的自底向上模型(https:///abs/1803.08225),一個(gè)用于復(fù)雜動(dòng)作可視化的系統(tǒng)(http://mosculp.csail./),一個(gè)可以對(duì)人和物體之間的的時(shí)間-空間關(guān)系建模的系統(tǒng)(https://ai.google/research/pubs/pub47219),以及借助蒸餾(https:///abs/1812.08249)和 3D 卷積技術(shù)(https://ai.google/research/pubs/pub47220)改進(jìn)視頻動(dòng)作識(shí)別。

在語(yǔ)音領(lǐng)域,我們提出了一種方法用于語(yǔ)義音頻表示的無(wú)監(jiān)督學(xué)習(xí)(https://ieeexplore./abstract/document/8461684),也提出了「高表現(xiàn)力、仿人類語(yǔ)音生成」的重大技術(shù)改進(jìn)(Tacotron,https:///abs/1803.09047)。同時(shí),多模態(tài)感知也是一個(gè)越來(lái)越重要的研究話題?!竿ㄟ^(guò)看來(lái)聽」(https:///abs/1804.03619)綜合了輸入視頻中的視覺(jué)和音頻線索,然后可以抽取、增強(qiáng)視頻中指定說(shuō)話者的聲音。這種技術(shù)有廣泛的應(yīng)用場(chǎng)景,從視頻增強(qiáng)和識(shí)別、到視頻通話、再到更好的聽力輔助設(shè)備都可以運(yùn)用,尤其適合同時(shí)有多個(gè)人說(shuō)話的場(chǎng)景。

在資源有限的平臺(tái)上實(shí)現(xiàn)感知也越來(lái)越重要。我們的第一代移動(dòng)平臺(tái)計(jì)算機(jī)視覺(jué)模型 MobileNets 已經(jīng)在學(xué)術(shù)界和工業(yè)界得到了廣泛應(yīng)用,而我們也在 2018 年發(fā)布了第二代模型 MobileNetV2(https:///abs/1801.04381)。在 MorphNet (https:///abs/1711.06798)中,我們提出了一種高效的方法學(xué)習(xí)深度神經(jīng)網(wǎng)絡(luò)的架構(gòu),它在符合計(jì)算資源限制的情況下為圖像和音頻模型提供了全面的性能改進(jìn),而更新的自動(dòng)網(wǎng)絡(luò)生成方面的研究則表明了可以針對(duì)硬件設(shè)計(jì)表現(xiàn)更加優(yōu)異的模型。



計(jì)算圖像學(xué)

在過(guò)去的幾年中,手機(jī)攝像頭畫質(zhì)以及易用性的提升可以說(shuō)是嘆為觀止。其中一部分改進(jìn)自然來(lái)自于手機(jī)攝像頭使用的感光器越來(lái)越先進(jìn),但同時(shí)更大的功勞在于計(jì)算圖像學(xué)領(lǐng)域的科學(xué)技術(shù)改進(jìn)。我們谷歌的研究團(tuán)隊(duì)發(fā)表了自己的最新研究成果,也和谷歌的安卓系統(tǒng)團(tuán)隊(duì)、消費(fèi)級(jí)硬件團(tuán)隊(duì)緊密協(xié)作,把這項(xiàng)成果搭載在最新的 Pixel 手機(jī)以及其它的設(shè)備上,并最終送達(dá)用戶手中。

早在 2014 年,我們就發(fā)布了 HDR 技術(shù),它讓手機(jī)快速連拍多張曝光不同的照片,然后在軟件中對(duì)齊這幾張照片,并通過(guò)計(jì)算軟件把它們合并為一張照片。最初 HDR 的設(shè)計(jì)目的是讓照片具有比只拍一張照片更大的動(dòng)態(tài)范圍,后來(lái),快速連拍多張照片并基于它們做計(jì)算性分析已經(jīng)成了一種通用的模式,2018 年的手機(jī)攝像頭基于這種模式開發(fā)了更多的功能,比如 Pixel 2 手機(jī)中的運(yùn)動(dòng)照片,以及動(dòng)作靜止照片中的增強(qiáng)現(xiàn)實(shí)模式。

動(dòng)作靜止照片中的增強(qiáng)現(xiàn)實(shí)模式中的一只小雞

今年,我們?cè)谟?jì)算圖像學(xué)研究上的主要努力是為手機(jī)攝像頭開發(fā)了一種新的能力,夜視,可以讓 Pixel 手機(jī)在夜里看得更清晰,這項(xiàng)功能也獲得了媒體和用戶的一致好評(píng)。當(dāng)然了,夜視僅僅是谷歌團(tuán)隊(duì)開發(fā)的幫助用戶拍出完美照片的眾多功能之一,這些功能都基于軟件、服務(wù)于攝像頭,它們包括:用機(jī)器學(xué)習(xí)帶來(lái)更好的人像模式照片,通過(guò)超級(jí)清晰變焦看得更清楚、更遠(yuǎn),以及用 Top Shot 和谷歌 Clips 捕捉特殊瞬間。

左:iPhone XS;右:帶有夜視功能的 Pixel 3 手機(jī)



算法與理論

算法是谷歌各個(gè)系統(tǒng)背后的支撐骨架,各種算法決定著從谷歌旅行的路程規(guī)劃系統(tǒng),到谷歌云的持續(xù)哈希系統(tǒng)等等的所有谷歌產(chǎn)品的表現(xiàn)。在過(guò)去的一年中,我們繼續(xù)在算法和理論方面進(jìn)行著深入的科學(xué)研究(https://ai.google/research/pubs/?area=AlgorithmsandTheory&year=2018),從理論基礎(chǔ)到實(shí)用算法,以及從圖挖掘(https://ai.google/research/teams/algorithms-optimization/graph-mining/)到保持隱私的計(jì)算方法。我們?cè)趦?yōu)化算法方面的探索覆蓋了許多領(lǐng)域,從用于機(jī)器學(xué)習(xí)的連續(xù)優(yōu)化,到分布式的組合優(yōu)化。在前一個(gè)領(lǐng)域,我們研究訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)的隨機(jī)優(yōu)化算法的收斂性的論文獲得了 ICLR 2018 的最佳論文獎(jiǎng),這篇論文展示了熱門的基于梯度的優(yōu)化方法存在的問(wèn)題(比如 ADAM 的一些變種),同時(shí)也為一些新的基于梯度的優(yōu)化方法提供了扎實(shí)的理論基礎(chǔ)。(https://ai.google/research/pubs/pub47409)

對(duì)于分布式優(yōu)化問(wèn)題,我們研究了如何改進(jìn)組合優(yōu)化問(wèn)題中的輪數(shù)和溝通復(fù)雜度,比如通過(guò)輪數(shù)壓縮(https://ai.google/research/pubs/pub46793)和核心組的圖中的匹配(https://ai.google/research/pubs/pub46793),以及子模最大化(https://ai.google/research/pubs/pub46927)和 k 核分解(https://ai.google/research/pubs/pub47742)。對(duì)于更偏向應(yīng)用的方面,我們開發(fā)了新算法解決通過(guò)草圖大規(guī)模設(shè)定封面(https://ai.google/research/pubs/pub46927),以及解決具有萬(wàn)億條邊的圖的平衡分區(qū)以及層次化分簇問(wèn)題。我們研究在線投遞服務(wù)的論文(https:///10.1145/3178876.3186104)得到了 WWW 2018 的最佳論文提名。還有,我們的開源優(yōu)化平臺(tái) OR-tools (https://developers.google.com/optimization/)也在 2018 Minizinc 限定編程比賽中贏得了 4 面金牌。

對(duì)于算法選擇理論,我們提出了一些新的模型(https:///10.1145/3159652.3159702),也對(duì)重建問(wèn)題(https:///10.1137/1.9781611975031.38)和多項(xiàng)式分對(duì)數(shù)的學(xué)習(xí)問(wèn)題(http://proceedings./v80/chierichetti18a.html)做了一些調(diào)研。我們也研究了神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到的函數(shù)的類型(https:///10.4230/LIPIcs.ITCS.2018.22),以及如何使用機(jī)器學(xué)習(xí)的思想改進(jìn)經(jīng)典在線算法(http://papers./paper/8174-improving-online-algorithms-via-ml-predictions)。

對(duì)于谷歌來(lái)說(shuō),了解一些有強(qiáng)有力的隱私保證的算法是有著重要意義的。在這樣的背景下,我們開發(fā)了兩種新的方法,通過(guò)迭代(https://ai.google/research/pubs/pub47118)和隨機(jī)排序(https://ai.google/research/pubs/pub47557)進(jìn)一步分析并增強(qiáng)差分隱私。我們也使用差分隱私技術(shù)設(shè)計(jì)可以感知?jiǎng)訖C(jī)的學(xué)習(xí)方法(https://ai.google/research/pubs/pub46913),它們?cè)诓┺闹泻荇敯?。類似這樣的學(xué)習(xí)技巧都在高效的在線市場(chǎng)設(shè)計(jì)中得到了應(yīng)用。我們?cè)谑袌?chǎng)相關(guān)的算法領(lǐng)域也有一些新的研究,比如幫助廣告商測(cè)試廣告投放的動(dòng)機(jī)兼容性的技術(shù)(https://ai.google/research/pubs/pub46968),以及優(yōu)化 app 內(nèi)廣告的刷新方式的技術(shù)(https://ai.google/research/pubs/pub46847)。我們也在重復(fù)拍賣問(wèn)題中把當(dāng)前最優(yōu)的動(dòng)態(tài)機(jī)制又向前推進(jìn)了一步,我們的動(dòng)態(tài)拍賣對(duì)于缺少未來(lái)預(yù)期(https://ai.google/research/pubs/pub47744)、預(yù)測(cè)有噪聲(https://ai.google/research/pubs/pub47745)、異質(zhì)買家行為(https://ai.google/research/pubs/pub46969)等狀況都可以保持魯棒,我們的結(jié)果還可以拓展到動(dòng)態(tài)雙拍賣的場(chǎng)景中(https://ai.google/research/pubs/pub47734)。最后,在在線優(yōu)化和在線學(xué)習(xí)魯棒性問(wèn)題中,我們開發(fā)了新的在線分配算法處理帶有流量峰值的隨機(jī)輸入(https://dl./citation.cfm?id=3105446),以及對(duì)損壞的數(shù)據(jù)魯棒的修補(bǔ)算法(https://ai.google/research/pubs/pub47732)。



軟件系統(tǒng)

我們對(duì)于軟件系統(tǒng)的研究很大部分都繼續(xù)與構(gòu)建機(jī)器學(xué)習(xí)模型有著種種聯(lián)系,尤其是與 TensorFlow 有許多聯(lián)系。比如,我們針對(duì) TensorFlow 1.0 發(fā)布了動(dòng)態(tài)控制流的設(shè)計(jì)和實(shí)現(xiàn)(https://dl./citation.cfm?id=3190551)。我們?cè)诤髞?lái)的研究中介紹了一個(gè)稱作 Mesh TensorFlow 的系統(tǒng),通過(guò)它可以很方便地定義具有并行模型的大規(guī)模分布式計(jì)算,這樣的系統(tǒng)可以包含多達(dá)幾十億個(gè)參數(shù)。另一個(gè)例子是,我們還發(fā)布了一個(gè)用于可拓展的深度神經(jīng)排序的 TensorFlow 庫(kù)。

TF 排序庫(kù)支持多項(xiàng)目評(píng)分架構(gòu),是傳統(tǒng)的多項(xiàng)目評(píng)分的拓展

我們也發(fā)布了 JAX(https://github.com/google/jax),這是一個(gè)帶有加速器的 NumPy 的變種,它可以支持 Python 函數(shù)的任意階自動(dòng)微分。雖然 JAX 并不包含在 TensorFlow 中,它所使用的部分底層基礎(chǔ)軟件其實(shí)是和 TF 相同的(比如 XLA,https://www./xla/),而且 JAX 的一些想法和算法也對(duì) TF 起到了不小幫助。我們?cè)跈C(jī)器學(xué)習(xí)的安全和隱私方面也做了更多研究,我們開發(fā)的安全、保證隱私的開源框架也用在了更多的 AI 系統(tǒng)中,比如 CleverHans (https://github.com/tensorflow/cleverhans)和 TensorFlow Privacy(https://github.com/tensorflow/privacy)。

我們看重的另一個(gè)研究方向是機(jī)器學(xué)習(xí)在軟件系統(tǒng)中的應(yīng)用,這可以發(fā)生在許多不同的層次上。比如,我們持續(xù)地研究用層次化模型向不同的設(shè)備分配計(jì)算任務(wù)(https:///pdf?id=Hkc-TeZ0W),以及我們參與了學(xué)習(xí)內(nèi)存訪問(wèn)模式的研究(http://proceedings./v80/hashemi18a/hashemi18a.pdf)。我們也繼續(xù)探索如何用模型學(xué)習(xí)到的索引在數(shù)據(jù)庫(kù)和存儲(chǔ)系統(tǒng)中替代傳統(tǒng)的索引結(jié)構(gòu)。正如我在去年的總結(jié)中寫的,對(duì)于如何在計(jì)算機(jī)系統(tǒng)中使用機(jī)器學(xué)習(xí),我們目前的認(rèn)識(shí)其實(shí)還處在非常早期。

層次化分配器(https:///pdf?id=Hkc-TeZ0W)對(duì)一個(gè)四層的神經(jīng)機(jī)器翻譯模型的計(jì)算量的分配。其中白色表示 CPU,四種不同的彩色表示 GPU。值得注意的是,每一層的每一步計(jì)算都是分配給了多個(gè) GPU 在執(zhí)行的。這種分配方式比人類專家設(shè)計(jì)的分配方式快 53.7%。

2018 年里我們也結(jié)識(shí)了 Spectre 和 Meltdown 這兩個(gè)現(xiàn)代計(jì)算機(jī)處理器帶有的嚴(yán)重安全漏洞,它們也正是在谷歌的零計(jì)劃(Project Zero)團(tuán)隊(duì)與其他團(tuán)隊(duì)的合作中發(fā)現(xiàn)的。這些漏洞以及其它相關(guān)的漏洞著實(shí)讓計(jì)算機(jī)架構(gòu)研究人員們忙活了一陣子。在我們持續(xù)地對(duì) CPU 的行為建模的過(guò)程中,我們的編譯器研究團(tuán)隊(duì)把他們的測(cè)量機(jī)器指令延遲和端口壓力的工具集成進(jìn)了 LLVM 中,這讓編譯器得以做出更好的決定。

谷歌具有為計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)構(gòu)建大規(guī)模、可信賴、高效的技術(shù)架構(gòu)的能力,谷歌的消費(fèi)者產(chǎn)品、谷歌的云端服務(wù)以及機(jī)器學(xué)習(xí)模型的推理就都高度依賴于這種能力。在過(guò)去的一年中,這些方面的研究亮點(diǎn)包括谷歌最新進(jìn)化的軟件防御網(wǎng)絡(luò) WAN(https://ai.google/research/pubs/pub47191);一個(gè)獨(dú)立工作、聯(lián)邦式的查詢處理平臺(tái),它可以在以不同的文件形式存儲(chǔ)的數(shù)據(jù)上、在許多不同的存儲(chǔ)系統(tǒng)上執(zhí)行 SQL 查詢語(yǔ)句(https://ai.google/research/pubs/pub47224);以及一個(gè)關(guān)于我們谷歌的代碼審查做法的詳細(xì)報(bào)告,包含了谷歌的代碼審查背后的動(dòng)機(jī)、目前的慣例、開發(fā)者的滿意狀況以及挑戰(zhàn)(https://ai.google/research/pubs/pub47025)。

運(yùn)行一個(gè)內(nèi)容存儲(chǔ)之類的大規(guī)模網(wǎng)絡(luò)服務(wù)需要在不斷變化的環(huán)境中做穩(wěn)定的負(fù)載均衡。我們開發(fā)了一個(gè)持續(xù)的哈希方案(https://dl./citation.cfm?id=3175309),它對(duì)于每一個(gè)服務(wù)器的最大負(fù)載有一個(gè)嚴(yán)密、可證明的保證,我們把它部署在了谷歌云的 Pub/Sub (https://cloud.google.com/pubsub/)上,為谷歌云的客戶提供服務(wù)。在發(fā)布了最初版本的論文(https:///abs/1608.01350)之后,Vimeo 的工程師注意到了這篇論文,實(shí)現(xiàn)了它并把它開源到 haproxy,然后在 Vimeo 的負(fù)載均衡項(xiàng)目中使用它。它帶來(lái)了顯著的改進(jìn),這些算法思想的運(yùn)用大幅降低了服務(wù)器緩存的帶寬需求,幾乎只有原先的 1/8,消除了一個(gè)重大性能瓶頸。


AutoML

AutoML 也被稱作「元學(xué)習(xí)」,主要通過(guò)機(jī)器學(xué)習(xí)方式讓機(jī)器學(xué)習(xí)的某些方面實(shí)現(xiàn)「自動(dòng)化」。多年來(lái)我們一直在該領(lǐng)域進(jìn)行研究,目標(biāo)是開發(fā)出一個(gè)懂得借鑒過(guò)往積累的見解與能力,進(jìn)而自動(dòng)發(fā)現(xiàn)并解決新問(wèn)題的系統(tǒng)。早期我們使用得最多的是強(qiáng)化學(xué)習(xí),如今我們也將目光鎖定在了進(jìn)化算法上。去年,我們向大家展示了如何通過(guò)進(jìn)化算法為視覺(jué)任務(wù)自動(dòng)發(fā)掘最先進(jìn)的神經(jīng)網(wǎng)絡(luò)架構(gòu)。此外,我們也探索了強(qiáng)化學(xué)習(xí)在神經(jīng)網(wǎng)絡(luò)架構(gòu)檢索以外的更多作用,最后成功證明可用于下列問(wèn)題的解決上:

1)自動(dòng)生成圖像變換序列,提高各種圖像模型的準(zhǔn)確性;

2)找到一種全新的符號(hào)優(yōu)化表達(dá)形式,比起常用的優(yōu)化規(guī)則效果更好。

我們?cè)?AdaNet 的工作展示了如何創(chuàng)建一個(gè)學(xué)習(xí)效果有保障、使用上快速靈活的 AutoML 算法。

AdaNet 自適應(yīng)地增強(qiáng)了神經(jīng)網(wǎng)絡(luò)的集成。它在每次迭代的過(guò)程中計(jì)算每個(gè)候選者的集合損失,再?gòu)闹刑暨x最優(yōu)秀的候選者進(jìn)入下一輪迭代。

我們另外一項(xiàng)工作重點(diǎn)是自動(dòng)發(fā)掘計(jì)算效率最高的神經(jīng)網(wǎng)絡(luò)架構(gòu),以便它們能在一些計(jì)算資源和推理時(shí)間有限的環(huán)境中(如移動(dòng)電話、自動(dòng)駕駛車輛等)運(yùn)行。為此,我們證明只要在強(qiáng)化學(xué)習(xí)架構(gòu)搜索的獎(jiǎng)勵(lì)函數(shù)中把模型的準(zhǔn)確率與推理時(shí)間進(jìn)行結(jié)合,就能找到既滿足高度準(zhǔn)確性又符合特定性能約束的模型。此外,我們還探索了如何通過(guò) ML 來(lái)學(xué)習(xí)自動(dòng)壓縮 ML 模型,以更少的調(diào)試參數(shù)和計(jì)算資源消耗的方式。


TPUs

Tensor Processing Units (TPUs) 是谷歌內(nèi)部自主研發(fā)的 ML 硬件加速器,最開始的設(shè)計(jì)初衷就是為了用于大規(guī)模的訓(xùn)練與推理上。TPUs 讓谷歌的許多研究得以實(shí)現(xiàn)突破,比如廣為人知的 BERT(前文提過(guò)),此外,通過(guò)開源的方式,它能讓世界各地的研究人員對(duì)谷歌的研究進(jìn)行拓展并實(shí)現(xiàn)突破。最典型的例子,任何人都可以通過(guò) Colab 免費(fèi)在 TPUs 上對(duì) BERT 進(jìn)行微調(diào),這里要提一下 TensorFlow Research Cloud,它使數(shù)以千計(jì)的研究人員得以從大體量的免費(fèi)云 TPU 供給的計(jì)算能力中受惠。

此外,我們還將多代 TPU 硬件作為商用云 TPUs 對(duì)外出售,其中包括被稱作 Cloud TPU Pod 的 ML 超級(jí)計(jì)算機(jī),這使大規(guī)模的 ML 訓(xùn)練服務(wù)變得觸手可及。僅就谷歌內(nèi)部而言,除了讓 ML 研究取得快速進(jìn)步,TPUs 還推動(dòng)了谷歌核心產(chǎn)品的重大改進(jìn),其中包括谷歌檢索、YouTube、Gmail、Google 智能助理和谷歌翻譯等。我們期待看到來(lái)自谷歌內(nèi)部和其他地方的 ML 團(tuán)隊(duì)可以通過(guò) TPUs,以其前所未有的計(jì)算規(guī)模在 ML 領(lǐng)域取得更多突破。

單個(gè) TPU v3 設(shè)備(左)與 TPU v3 Pod 的部分部件展示(右)。TPU v3 是谷歌最新一代的 Tensor Processing Unit(TPU)硬件。它以云 TPU v3 的形式對(duì)外出售,采用液體冷卻技術(shù)以獲得最佳性能(計(jì)算機(jī)芯片 液體 = 太有意思了?。暾?TPU v3 Pod 將可以為全球最大的 ML 任務(wù)提供高達(dá) 100 petaflops 的計(jì)算能力。


開源軟件與數(shù)據(jù)集

發(fā)布開源軟件與創(chuàng)建全新的公共數(shù)據(jù)集,是我們?yōu)檐浖こ萄芯可鐓^(qū)做貢獻(xiàn)的最主要兩種方式。這方面我們最大的貢獻(xiàn)之一要屬 TensorFlow,這是一款發(fā)布于 2015 年 11 月的 ML 計(jì)算系統(tǒng),這些年來(lái)倍受歡迎。2018 年我們剛為 TensorFlow 慶祝完第 3 個(gè)生日,這期間 TensorFlow 已經(jīng)被被下載超過(guò) 3000 萬(wàn)次,且有超過(guò) 1700 名的貢獻(xiàn)者添加了 45 000 次的 commits。我們?cè)?2018 年為 TensorFlow 更新了 8 個(gè)主要版本,增加了動(dòng)態(tài)圖機(jī)制和分發(fā)策略等主要功能。在研發(fā)過(guò)程中,我們啟動(dòng)了吸引社區(qū)注意力的公眾設(shè)計(jì)評(píng)審活動(dòng),通過(guò)組建特殊興趣小組留住貢獻(xiàn)者。隨著 TensorFlow Lite、TensorFlow.js 和 TensorFlow Probability 等產(chǎn)品的相繼推出,TensorFlow 生態(tài)系統(tǒng)也在 2018 年迎來(lái)了大幅增長(zhǎng)。

我們很高興得知 TensorFlow 作為頂級(jí)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)框架在 Github 上擁有強(qiáng)大的號(hào)召力。TensorFlow 團(tuán)隊(duì)也一直致力于實(shí)現(xiàn)快速解決 Github 上存在的問(wèn)題,為外部貢獻(xiàn)者提供更順暢的操作通道。根據(jù)谷歌學(xué)術(shù)檢索,我們已公開發(fā)表的論文持續(xù)為全世界的大部分機(jī)器學(xué)習(xí)和深度學(xué)習(xí)研究提供了有效支持。TensorFlow Lite 僅推出 1 年,便在全球超過(guò) 15 億的設(shè)備上獲得使用;成為 JavaScript 使用排名第一的 ML 框架;同時(shí)在對(duì)外放出的短短 9 個(gè)月內(nèi),已在 Github 獲得超過(guò) 2 百萬(wàn)次的內(nèi)容分發(fā)網(wǎng)絡(luò)(CDN)點(diǎn)擊量、20.5 萬(wàn)次下載量以及超過(guò) 1 萬(wàn)次的星星點(diǎn)亮。

除了繼續(xù)耕耘現(xiàn)有的開源生態(tài)系統(tǒng),2018 年我們還做了以下事情:

  • 引入一個(gè)用于靈活、可再現(xiàn)強(qiáng)化學(xué)習(xí)的全新框架

https://ai./2018/08/introducing-new-framework-for-flexible.html

  • 引入一個(gè)可以快速習(xí)得數(shù)據(jù)集特征的可視化工具(無(wú)需編寫任何代碼)

https://ai./2018/09/the-what-if-tool-code-free-probing-of.html

  • 增加一個(gè)涉及 learning-to-rank 算法(以最大化整個(gè)列表效用的方式對(duì)項(xiàng)目列表進(jìn)行排序的過(guò)程,適用于包括搜索引擎、推薦系統(tǒng)、機(jī)器翻譯、對(duì)話系統(tǒng)甚至是計(jì)算生物學(xué)等領(lǐng)域)的高級(jí)機(jī)器學(xué)習(xí)問(wèn)題庫(kù)

http://ai./2018/12/tf-ranking-scalable-tensorflow-library.html

  • 發(fā)布一個(gè)快速、靈活的 AutoML 解決方案框架

  • 發(fā)布一個(gè)通過(guò) TensorFlow.js 執(zhí)行瀏覽器實(shí)時(shí) t-SNE 可視化工作的庫(kù)

  • 增加用于處理電子醫(yī)療數(shù)據(jù)(會(huì)在本文醫(yī)療保障環(huán)節(jié)提到)的 FHIR 工具 & 軟件

針對(duì)完整 MNIST 數(shù)據(jù)集的 tSNE 嵌入實(shí)時(shí)演變過(guò)程。該數(shù)據(jù)集包含 60,000 個(gè)手寫數(shù)字圖像?,F(xiàn)場(chǎng)演示請(qǐng)點(diǎn)擊:https://nicola17./tfjs-tsne-demo/

公共數(shù)據(jù)集是觸發(fā)靈感的絕佳來(lái)源,可帶領(lǐng)許多領(lǐng)域取得重大進(jìn)步,因?yàn)楣矓?shù)據(jù)集能夠?yàn)樯鐓^(qū)帶來(lái)有趣的數(shù)據(jù)和問(wèn)題,并在許多任務(wù)的解決上形成有益的競(jìng)爭(zhēng)氛圍。今年我們很高興能夠發(fā)布谷歌數(shù)據(jù)集檢索工具(Google Dataset Search),這是一款可以讓我們從各個(gè)網(wǎng)絡(luò)渠道查找想要的公共數(shù)據(jù)集的全新工具。從數(shù)百萬(wàn)的通用注釋圖像或視頻數(shù)據(jù)集、到用于語(yǔ)音識(shí)別的孟加拉人群源數(shù)據(jù)集、再到機(jī)器人手臂抓取數(shù)據(jù)集,這些年我們策劃并發(fā)布了多個(gè)嶄新數(shù)據(jù)集,即使在 2018 年,數(shù)據(jù)集的清單也還在不斷增加中。

通過(guò) Crowdsource 軟件添加到 Open Images Extended 的圖片(源自印度 & 新加坡)

我們還發(fā)布了 Open Images V4,這是一個(gè)包含 15.4 M 基于 600 種類別多達(dá) 1.9 M 圖像的邊框數(shù)據(jù)以及 30.1 M 源自 19,794 種類別的人工驗(yàn)證圖像級(jí)標(biāo)簽的數(shù)據(jù)集。我們通過(guò) crowdsource.google.com 為數(shù)據(jù)集添加了 5.5M 由世界各地?cái)?shù)百萬(wàn)用戶提供的生成注釋數(shù)據(jù),有效豐富了數(shù)據(jù)集在人和場(chǎng)景方面的多樣性。我們還發(fā)布了具備視頻視聽注解功能的 Atomic Visual Actions (AVA) 數(shù)據(jù)集,可以有效提升機(jī)器理解視頻中人類的行為與語(yǔ)言的能力。此外,我們還官宣了最新的 YouTube-8M 挑戰(zhàn)賽和第二屆 YouTube-8M Large-Scale Video 理解挑戰(zhàn)賽與 Workshop。其他發(fā)布的數(shù)據(jù)集,如 HDR Burst Photography 旨在為計(jì)算攝影領(lǐng)域的各種研究提供幫助;Google-Landmarks 是一個(gè)作用于地標(biāo)識(shí)別的全新數(shù)據(jù)集。除了發(fā)布數(shù)據(jù)集,我們還探索了相關(guān)的一些新技術(shù),比如 Fluid Annotation 可以讓我們快速創(chuàng)建可視化數(shù)據(jù)集,通過(guò)一種探索性的 ML 驅(qū)動(dòng)接口實(shí)現(xiàn)更快的圖像注釋行為。

Fluid Annotation 基于 COCO dataset 圖像的可視化效果。圖片來(lái)源:gamene,原始圖片。

我們時(shí)不時(shí)還會(huì)給研究界樹立新挑戰(zhàn),以便聚合大家一同來(lái)解決棘手的研究問(wèn)題。一般來(lái)說(shuō),我們會(huì)通過(guò)發(fā)布新的數(shù)據(jù)集來(lái)達(dá)到這個(gè)目的,但也有例外的時(shí)候。比如今年,我們就圍繞包容性圖像挑戰(zhàn)賽制定了全新的挑戰(zhàn),致力于創(chuàng)造免除偏見、更具魯棒性的模型;iNaturalist 2018 挑戰(zhàn)賽旨在讓計(jì)算機(jī)得以細(xì)致區(qū)分物體的類別(如圖像中的植物種類);在 Kaggle 上發(fā)起的 'Quick, Draw!' Doodle Recognition 挑戰(zhàn)賽試圖為 QuickDraw 游戲創(chuàng)建更好的分類器;還有 Conceptual Captions 作為大規(guī)模的圖像字幕數(shù)據(jù)集挑戰(zhàn)賽,旨在推動(dòng)更好的圖像字幕模型研究。


機(jī)器人學(xué)

2018 年,我們?cè)诶斫鈾C(jī)器學(xué)習(xí)如何教機(jī)器人行動(dòng)這個(gè)目標(biāo)方面取得了重大進(jìn)展,在教機(jī)器人掌握新事物的能力方面達(dá)到了新的里程碑(2018 年 CORL 的最佳系統(tǒng)論文)。我們還通過(guò)結(jié)合機(jī)器學(xué)習(xí)和基于采樣的方法(2018 年 ICRA 的最佳服務(wù)機(jī)器人論文)以及研究機(jī)器人的幾何構(gòu)造,在機(jī)器人運(yùn)動(dòng)學(xué)習(xí)方面取得了進(jìn)展。我們?cè)跈C(jī)器人通過(guò)自主觀察更好地感知世界結(jié)構(gòu)這一能力上取得了很大的進(jìn)步。我們第一次成功地在真正的機(jī)器人上在線訓(xùn)練了深層強(qiáng)化學(xué)習(xí)模型,并且正在尋找新的理論方法,學(xué)習(xí)控制機(jī)器人的穩(wěn)定方法。


人工智能在其他領(lǐng)域的應(yīng)用

2018 年,我們將深度學(xué)習(xí)應(yīng)用于物理和生物科學(xué)的一系列問(wèn)題中。使用深度學(xué)習(xí),我們可以為科學(xué)家提供相當(dāng)于數(shù)以百計(jì)的挖掘數(shù)據(jù)研究助理,從而提高他們的創(chuàng)造力和生產(chǎn)力。

我們關(guān)于神經(jīng)元高精度自動(dòng)重建的論文提出了一個(gè)新的模型,與以前的深度學(xué)習(xí)技術(shù)相比,它將連接體數(shù)據(jù)(connectomics data)自動(dòng)解釋的準(zhǔn)確性提高了一個(gè)數(shù)量級(jí)。

圖為我們的算法正在跟蹤鳴禽大腦中的一個(gè)神經(jīng)突觸

將機(jī)器學(xué)習(xí)應(yīng)用于科學(xué)的其他一些示例有:

  • 通過(guò)對(duì)恒星的光曲線數(shù)據(jù)進(jìn)行挖掘,發(fā)現(xiàn)太陽(yáng)系外的新行星

  • 識(shí)別短 DNA 序列的起源或功能

  • 自動(dòng)檢測(cè)離焦顯微鏡圖像

  • 用數(shù)字技術(shù)構(gòu)建同一個(gè)細(xì)胞帶有污點(diǎn)的圖像

  • 自動(dòng)繪制肽鏈的質(zhì)譜分析圖

在 Fiji(圖像 J)里面,一個(gè) TensorFlow 模型對(duì)顯微鏡細(xì)胞拼接圖像的聚焦質(zhì)量進(jìn)行了評(píng)估。邊界的色調(diào)表示預(yù)測(cè)的焦點(diǎn)質(zhì)量,邊界亮度表示預(yù)測(cè)的不確定性。


健康

在過(guò)去的幾年中,我們一直在將機(jī)器學(xué)習(xí)應(yīng)用于健康領(lǐng)域,這一領(lǐng)域影響著我們每一個(gè)人,我們相信通過(guò)機(jī)器學(xué)習(xí)可以增強(qiáng)專業(yè)醫(yī)療人員的直覺(jué)和經(jīng)驗(yàn),從而為醫(yī)療領(lǐng)域帶來(lái)巨大的改變。我們一般會(huì)與醫(yī)療保健組織合作,解決基礎(chǔ)研究問(wèn)題(利用臨床專家的反饋使我們的結(jié)果更加可信),然后將結(jié)果發(fā)表在權(quán)威的同行評(píng)審的科學(xué)和臨床期刊上。一旦研究得到臨床和科學(xué)驗(yàn)證,我們就進(jìn)行用戶和 HCI 研究,以了解在現(xiàn)實(shí)的臨床環(huán)境中如何部署它。2018 年,我們將臨床任務(wù)預(yù)測(cè)也納入了計(jì)算機(jī)輔助診斷的領(lǐng)域。

在 2016 年底,我們發(fā)表的研究表明,在一項(xiàng)回顧性研究中,接受過(guò)糖尿病視網(wǎng)膜病變體征視網(wǎng)膜底圖像評(píng)估訓(xùn)練的模型在這項(xiàng)任務(wù)中的表現(xiàn)比美國(guó)醫(yī)學(xué)委員會(huì)認(rèn)證的眼科醫(yī)師略好。2018 年,我們能夠證明,通過(guò)讓視網(wǎng)膜專家對(duì)培訓(xùn)圖像進(jìn)行標(biāo)記,并使用一個(gè)判定方案(在該方案中,多個(gè)視網(wǎng)膜專家聚集在一起,對(duì)每個(gè)眼底圖像進(jìn)行一次單獨(dú)的集體評(píng)估),我們可以得出一個(gè)與視網(wǎng)膜專家相當(dāng)?shù)哪P?。后?lái),我們發(fā)表了一份評(píng)估報(bào)告,展示了眼科醫(yī)生如何利用這種機(jī)器學(xué)習(xí)模型,使他們做出比單獨(dú)做出比不使用機(jī)器學(xué)習(xí)時(shí)更準(zhǔn)確的決定。我們已經(jīng)在印度的 Aravind 眼科醫(yī)院和泰國(guó)衛(wèi)生部附屬的 Rajavithi 醫(yī)院等 10 多個(gè)地點(diǎn)與我們 Alphabet 的同事合作,共同部署了這種糖尿病視網(wǎng)膜病變檢測(cè)系統(tǒng)。

左側(cè)是一張視網(wǎng)膜眼底圖像,被眼科專家評(píng)審小組評(píng)定為中度 DR(「MO」)。右上角是模型預(yù)測(cè)得分的圖示(「N」=無(wú) DR,「MI」=輕度 DR,「MO」=中度 DR)。右下角是醫(yī)生在沒(méi)有幫助的情況下給出的一組分?jǐn)?shù)。

我們還發(fā)表了一個(gè)機(jī)器學(xué)習(xí)模型的研究,這個(gè)模型可以通過(guò)視網(wǎng)膜圖像評(píng)估心血管病患病風(fēng)險(xiǎn)。這是一種新型的無(wú)創(chuàng)生物標(biāo)記方法,它可以幫助臨床醫(yī)生更好地了解患者的健康狀況。

我們今年還繼續(xù)關(guān)注病理學(xué),展示了如何使用機(jī)器學(xué)習(xí)改善前列腺癌的分級(jí),通過(guò)深度學(xué)習(xí)來(lái)檢測(cè)轉(zhuǎn)移性乳腺癌,并開發(fā)了一個(gè)增強(qiáng)現(xiàn)實(shí)顯微鏡的原型,它可以通過(guò)將從計(jì)算機(jī)視覺(jué)模型中獲得的視覺(jué)信息實(shí)時(shí)疊加到顯微鏡學(xué)家的視野中,輔助病理學(xué)家和其他科學(xué)家的工作。

在過(guò)去的四年中,我們?cè)诶秒娮咏】涤涗洈?shù)據(jù)進(jìn)行深度學(xué)習(xí),從而做出臨床相關(guān)預(yù)測(cè)方面做了大量的研究工作。2018 年,我們與芝加哥大學(xué)醫(yī)學(xué)院、加州大學(xué)舊金山分校和斯坦福大學(xué)醫(yī)學(xué)院合作,并將研究成果發(fā)表在《自然數(shù)字醫(yī)學(xué)》雜志上。我們的研究是關(guān)于如何將機(jī)器學(xué)習(xí)模型應(yīng)用于未識(shí)別的電子病歷中,與當(dāng)前的最佳臨床實(shí)踐相比,它可以對(duì)各種臨床相關(guān)任務(wù)做出更準(zhǔn)確的預(yù)測(cè)。作為這項(xiàng)工作的一部分,我們開發(fā)了一些工具,使得在人物差異很大,底層 EHR 數(shù)據(jù)集也非常不同的情況下,創(chuàng)建這些模型變得更加容易。我們開發(fā)了快速醫(yī)療保健協(xié)作資源(Fast Healthcare Interoperability Resources (FHIR))標(biāo)準(zhǔn)相關(guān)的開源軟件,以幫助更容易和更標(biāo)準(zhǔn)化地處理醫(yī)療數(shù)據(jù)(請(qǐng)參閱此 Github 代碼庫(kù))。最近,團(tuán)隊(duì)與合作伙伴共同努力,在《Nature Biotechnology》上發(fā)表了同行評(píng)議論文。

在將機(jī)器學(xué)習(xí)應(yīng)用于歷史收集的數(shù)據(jù)時(shí),重要的是要了解過(guò)去經(jīng)歷過(guò)人類結(jié)構(gòu)偏差的人群,以及這些偏差是如何在數(shù)據(jù)中編碼的。機(jī)器學(xué)習(xí)提供了一個(gè)機(jī)會(huì)來(lái)檢測(cè)和解決偏見,并積極推進(jìn)健康公平,這也正是我們正在努力推進(jìn)的一個(gè)方面。


研究推廣

我們采用了許多不同的方式與外部研究團(tuán)體互動(dòng),包括教師參與和學(xué)生支持。我們很榮幸接收數(shù)百名本科生、碩士和博士生作為實(shí)習(xí)生,并為北美、歐洲和中東地區(qū)的學(xué)生提供多年的博士獎(jiǎng)學(xué)金。除了財(cái)政支持,每個(gè)獎(jiǎng)學(xué)金獲得者都被指派一個(gè)或多個(gè)谷歌研究人員作為導(dǎo)師,我們召集所有的研究員參加一年一度的谷歌博士獎(jiǎng)學(xué)金峰會(huì),在那里他們可以接觸到谷歌正在進(jìn)行的最先進(jìn)的研究,并有機(jī)會(huì)與谷歌的研究人員以及其他來(lái)自世界各地的博士生建立聯(lián)系??梢圆榭匆曨l:https:///7RcUokN_eCg。

Google AI 實(shí)習(xí)生服務(wù)是這項(xiàng)獎(jiǎng)學(xué)金計(jì)劃的補(bǔ)充,它的形式是,讓想要學(xué)習(xí)進(jìn)行深度學(xué)習(xí)研究的人花一年時(shí)間與 Google 的研究人員一起工作并接受指導(dǎo)。2018 年是這項(xiàng)服務(wù)的第三年,全球的谷歌員工都加入了不同的團(tuán)隊(duì),從事機(jī)器學(xué)習(xí)、感知、算法和優(yōu)化、語(yǔ)言理解、醫(yī)療保健等領(lǐng)域的研究。目前該項(xiàng)目第四年的申請(qǐng)已經(jīng)結(jié)束,我們很期待看到研究人員在 2019 年將進(jìn)行的研究。

每年,我們還通過(guò)我們的 Google Faculty Research Awards 計(jì)劃為一些研究項(xiàng)目的教員和學(xué)生提供支持。2018 年,我們還繼續(xù)在谷歌(Google)為特定領(lǐng)域的教職員工和學(xué)生舉辦研討會(huì),包括在印度班加羅爾辦事處舉辦的人工智能/機(jī)器學(xué)習(xí)研究與實(shí)踐研討會(huì)、在蘇黎世辦事處舉辦的算法與優(yōu)化研討會(huì)、在桑尼維爾舉辦的機(jī)器學(xué)習(xí)醫(yī)療保健應(yīng)用研討會(huì)、在劍橋舉辦了關(guān)于公平與偏見的研討會(huì)。

我們認(rèn)為,公開向?qū)V泛的研究群體作出貢獻(xiàn)是支持健康、高效的研究環(huán)境的關(guān)鍵部分。除了開放源代碼和發(fā)布數(shù)據(jù)集之外,我們的大部分研究成果都在頂級(jí)會(huì)議和期刊上公開發(fā)布,我們還積極參與各種不同學(xué)科范圍的會(huì)議組織和贊助。我們參與了 ICLR 2018、NAACL 2018、ICML 2018、CVPR 2018、NEURIPS 2018、ECCV 2018 和 EMNLP 2018。同時(shí),2018 年谷歌還廣泛參與了 ASPLOS、HPCA、ICSE、IEEE Security & Privacy、OSDI、SIGCOMM 等會(huì)議。


新地方,新面孔

2018 年,我們很高興地迎來(lái)了許多具有不同背景的新人加入我們的研究機(jī)構(gòu)。我們宣布成立在非洲的第一個(gè)人工智能研究實(shí)驗(yàn)室,它位于加納共和國(guó)的首都阿克拉。我們擴(kuò)大了在巴黎、東京和阿姆斯特丹的人工智能實(shí)驗(yàn)室規(guī)模,并在普林斯頓開設(shè)了一個(gè)研究實(shí)驗(yàn)室。我們將繼續(xù)在全球各地的辦公室招聘人才,您可以了解更多有關(guān)加入我們的信息。


展望 2019 年

這篇博文只總結(jié)了 2018 年我們進(jìn)行的研究的一小部分?;仡?2018 年,我們?yōu)槲覀兯〉贸删偷膹V度和深度感到興奮和自豪。2019 年,我們期待對(duì)谷歌的方向和產(chǎn)品產(chǎn)生更大的影響,也期待著對(duì)更廣泛的研究和工程界產(chǎn)生更大的影響!

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多