|
來源:半導(dǎo)體制造 人工智能(AI)的爆炸性應(yīng)用正開啟半導(dǎo)體設(shè)備的新紀(jì)元,在帶來眾多新機(jī)遇的同時(shí)也提出巨大挑戰(zhàn)。在由美國應(yīng)用材料公司和SEMI在2018年7月召開的SEMICON West大會(huì)期間舉辦的AI設(shè)計(jì)論壇上, IBM研究部高級(jí)副總裁John E. Kelly博士在談到人工智能將如何顯著改變世界時(shí)表示:“這是一個(gè)計(jì)算時(shí)代,其規(guī)模將使之前的時(shí)代相形見絀,其方式將改變我們所有的業(yè)務(wù)和所有行業(yè)以及我們所有的生活。這是助力推動(dòng)半導(dǎo)體產(chǎn)業(yè)向前發(fā)展的時(shí)代。機(jī)會(huì)數(shù)量巨大?!痹诂F(xiàn)有的15億至20億美元的信息技術(shù)產(chǎn)業(yè)之上,人工智能有2萬億美元的決策支持機(jī)會(huì)。“從字面上看,世界上每個(gè)行業(yè)都會(huì)受到這種影響和改變”。 應(yīng)用材料公司首席執(zhí)行官Gary Dickerson在上述活動(dòng)上發(fā)言時(shí)表示,AI“需要在邊緣和云端創(chuàng)新,實(shí)現(xiàn)數(shù)據(jù)的產(chǎn)生(在邊緣)、存儲(chǔ)和處理以釋放價(jià)值。與此同時(shí),摩爾定律正在放緩,創(chuàng)造了完美的機(jī)會(huì)。硬件再次變得迷人。在過去的18個(gè)月中,芯片初創(chuàng)公司所獲得的資金比過去18年還多。除了來自英特爾和高通等傳統(tǒng)IC公司的AI芯片外,還有超過45家初創(chuàng)公司正致力于開發(fā)新的AI芯片,風(fēng)險(xiǎn)投資超過15億美元,其中至少有5家企業(yè)籌集了超過1億美元。谷歌、Facebook、微軟、亞馬遜、百度和阿里巴巴等科技巨頭也在開發(fā)AI芯片。擁有比其他任何人早12個(gè)月勝出的AI芯片可能是一個(gè)1000億美元的機(jī)會(huì)?!皯?yīng)用材料公司的內(nèi)部驅(qū)動(dòng)力是速度和上市時(shí)間。一個(gè)月的價(jià)值是多少?一分鐘的價(jià)值是多少?” SEMI總裁兼首席執(zhí)行官Ajit Manocha稱其為半導(dǎo)體行業(yè)的“重生”。他在最近的一篇文章中指出:“人工智能正在改變一切——并將半導(dǎo)體帶回當(dāng)之無愧的聚光燈下。AI的數(shù)百澤字節(jié)(zettabytes)和數(shù)萬億美元的潛在市場依賴于新的半導(dǎo)體架構(gòu)和計(jì)算平臺(tái)。制造這些AI半導(dǎo)體引擎需要在材料、設(shè)備和設(shè)計(jì)方法領(lǐng)域的大量創(chuàng)新?!?/p> 在去年年底召開的國際電子器件會(huì)議(IEDM)期間應(yīng)用材料舉辦的展覽會(huì)上,IBM研究院副院長兼Almaden實(shí)驗(yàn)室主任Jeff Welser博士表示,人工智能的爆炸式增長是由需要處理大量非結(jié)構(gòu)化數(shù)據(jù)所驅(qū)動(dòng),現(xiàn)階段我們僅在短短的兩天內(nèi)生成的數(shù)據(jù)就與2003年全年產(chǎn)生的數(shù)據(jù)總量一樣多。“在2020年左右估計(jì)將產(chǎn)生50澤字節(jié)的數(shù)據(jù)。這是21個(gè)零?!?/p> Welser將在2019年5月召開的ConFab 2019上發(fā)表主題演講。他指出,80%的所有數(shù)據(jù)都是非結(jié)構(gòu)化的,增長速率是結(jié)構(gòu)化數(shù)據(jù)的15倍?!叭绻憧匆幌略鲩L情況,它實(shí)際上是一種完全不同類型的數(shù)據(jù)。語音數(shù)據(jù)、社交媒體數(shù)據(jù),包括大量圖像、視頻、音頻和文本,是非常非結(jié)構(gòu)化的文本?!比缓笫俏锫?lián)網(wǎng)互連傳感器的數(shù)據(jù)。 有多種方法來處理這些數(shù)據(jù)。CPU對(duì)于結(jié)構(gòu)化的浮點(diǎn)數(shù)據(jù)非常有效,而GPU在AI應(yīng)用程序中運(yùn)行良好,但這并不意味著人們不會(huì)將傳統(tǒng)的CPU用于AI。今年8月,英特爾表示其在2017年銷售了10億美元的人工智能處理器芯片。英特爾數(shù)據(jù)中心負(fù)責(zé)人Navin Shenoy表示,英特爾已對(duì)其CPU進(jìn)行了優(yōu)化,在過去幾年中人工智能訓(xùn)練方面的表現(xiàn)改進(jìn)了200倍,Xeon處理器在人工智能領(lǐng)域的銷售額在2017年達(dá)到10億美元,而公司的總收入為628億美元。英特爾人工智能產(chǎn)品部門負(fù)責(zé)人Naveen Rao表示,這筆10億美元的計(jì)算來自于客戶,這些客戶告訴英特爾購買芯片用于人工智能,以及計(jì)算有多少客戶的數(shù)據(jù)中心用于此類工作。 為AI應(yīng)用的硬件定制并不是新鮮事物。Welser說:“即使早在90年代,他們就開始使用ASICS和FPGA試圖找到更好地做到這一點(diǎn)的方法?!崩?,谷歌在2016年推出的張量處理單元(TPU)是專為機(jī)器學(xué)習(xí)應(yīng)用而研制的定制ASIC芯片,使芯片對(duì)降低的計(jì)算精度有更高的容忍度,意味著每次操作需要更少的晶體管。 當(dāng)GPU在2008~2009年出現(xiàn)時(shí),人們意識(shí)到除了預(yù)先設(shè)計(jì)的應(yīng)用——圖形處理外,它們真的很適合做神經(jīng)網(wǎng)絡(luò)所需的那種數(shù)學(xué)運(yùn)算。 “從那時(shí)起,我們已經(jīng)看到了一大堆不同的架構(gòu),試圖繼續(xù)提高我們運(yùn)行神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和推理的能力?!?nbsp; 要實(shí)現(xiàn)AI工作,首先“訓(xùn)練”一個(gè)神經(jīng)網(wǎng)絡(luò),其中權(quán)重根據(jù)輸出而改變;然后是“推理”,其中權(quán)重是固定的。這可能意味著需要兩種不同類型的芯片?!叭绻銢]有嘗試在其上學(xué)習(xí),當(dāng)你使用已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)并運(yùn)行它用于任何應(yīng)用程序時(shí),你可能會(huì)得到一些功率低得多、速度更快、效率更高的結(jié)果。對(duì)于我們討論硬件的發(fā)展時(shí)變得非常重要。” 無論是CPU、GPU、ASIC還是FPGA,當(dāng)今技術(shù)的問題是所需的處理功率和現(xiàn)有可用功率之間存在巨大差距。應(yīng)用材料公司的Dickerson說:“我們?cè)诿客咝阅苓@一指標(biāo)上還需提升1000倍?!辈粌H需要減少數(shù)據(jù)中心中AI處理器所用電量,還需要減少汽車、安全等移動(dòng)應(yīng)用,在這些應(yīng)用中需要實(shí)時(shí)而非在云中做出決策,這也可能導(dǎo)致需要不同類型的AI芯片。一個(gè)有趣的例子是IBM世界領(lǐng)先的Summit超級(jí)計(jì)算機(jī),擁有由27648臺(tái)Nvidia GPU推動(dòng)的9216臺(tái)IBM處理器,占用相當(dāng)于兩個(gè)網(wǎng)球場空間,耗費(fèi)一個(gè)小鎮(zhèn)的電量。
為了達(dá)到性能每瓦的新水平,在AI芯片級(jí)別的研究創(chuàng)新包括: ·低精度計(jì)算 ·模擬計(jì)算 ·電阻計(jì)算 在一項(xiàng)研究中,IBM人為地降低了神經(jīng)網(wǎng)絡(luò)的精度,結(jié)果令人驚訝。Welser說:“我們發(fā)現(xiàn)可以將浮點(diǎn)數(shù)降低到14位,并獲得了與16、32或64位完全相同的精度。浮點(diǎn)數(shù)位在這個(gè)點(diǎn)上并不重要。”這意味著神經(jīng)網(wǎng)絡(luò)的某些部分可以具有高精度,而另一些部分則具有低精度。Welser說:“你可做出許多權(quán)衡,通過放棄精確度,可以降低功率或提高性能”。 老式模擬計(jì)算具有更低的精度,但可能非常適合AI。Welser說:“模擬計(jì)算在當(dāng)時(shí)非常有效,只是當(dāng)你試圖做高精度浮點(diǎn)計(jì)算時(shí),你無法以任何有意義的方式來控制錯(cuò)誤或規(guī)模。但如果你真正想要的是擁有可變連接的能力,如神經(jīng)元,那么也許你可以使用模擬設(shè)備?!?/p> 電阻計(jì)算是模擬計(jì)算的一個(gè)轉(zhuǎn)折點(diǎn),它具有消除內(nèi)存和計(jì)算之間瓶頸的額外優(yōu)勢。Welser說將其視為神經(jīng)元層,這些神經(jīng)元之間的連接將是模擬電阻存儲(chǔ)器?!巴ㄟ^改變電阻存儲(chǔ)器的電平,在一個(gè)神經(jīng)元和下一個(gè)神經(jīng)元之間流動(dòng)的電流量將自動(dòng)變化。下一個(gè)神經(jīng)元將根據(jù)流入其中的電流量決定將如何激發(fā)。IBM為該應(yīng)用試驗(yàn)了相變存儲(chǔ)器?!帮@然,相變存儲(chǔ)器可以達(dá)到低電阻或高電阻(即1或0),但你無法使其變?yōu)榻橛趦烧咧g的一個(gè)值,這正是我們想要利用的地方。有希望采用模擬設(shè)備作為一部分組成單元和擺脫內(nèi)存的瓶頸,以及在實(shí)現(xiàn)高精度互連時(shí)避免所需的精度/功率要求。” 成功的電阻模擬存儲(chǔ)器最終將歸結(jié)為材料挑戰(zhàn)?!拔覀兿M鎯?chǔ)容量有一千個(gè)級(jí)別,希望在關(guān)閉和打開時(shí)具有非常好的對(duì)稱性,這不是你通??紤]的。業(yè)界面臨的挑戰(zhàn)之一就是考慮如何更好地獲得滿足這些需求的材料,而不僅僅是開啟或關(guān)閉一位的直接存儲(chǔ)?!?/p> 應(yīng)用材料公司市場情報(bào)主管Sundeep Bajikar在一篇博客中寫道,“解決處理器到內(nèi)存的訪問和帶寬瓶頸將為AI帶來新的內(nèi)存架構(gòu),最終可能導(dǎo)致邏輯和內(nèi)存制造之間的融合。IBM的TrueNorth推理芯片就是這樣一種新架構(gòu)的例子,其中每個(gè)神經(jīng)元都可以訪問自己的本地存儲(chǔ)器,無需片外訪問存儲(chǔ)器。諸如ReRAM,F(xiàn)E-RAM和MRAM等新型存儲(chǔ)器件可以催化以存儲(chǔ)器為中心的計(jì)算領(lǐng)域的創(chuàng)新。將高性能邏輯和高性能存儲(chǔ)器的工藝技術(shù)分離的傳統(tǒng)方法可能不再適用于精度降低計(jì)算的新AI世界。” |
|
|