小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

鯨準研究院 | 人工智能歷史之AI芯片元年回顧

 鯨準 2018-06-01

AI芯片是怎么回事:近兩年熱起來的AI芯片是能運行AI應用的芯片,還是傳統(tǒng)芯片加了AI功能?為什么各路人馬都開始做芯片了,這不是芯片廠商的生意嗎?

近期受“中興事件”熱度影響,AI芯片方面的新聞也顯得格外集中。各方涌入之際,技術阻隔讓人只聞熱度不解其意。本文力圖化解專業(yè)名詞障礙,以2017芯片元年的巨頭戰(zhàn)爭入手,簡略回顧這段AI芯片歷史中有代表性的故事,以助讀者一窺算法與芯片在人工智能發(fā)展中的身影。

————————————————————

作者:王麗萌

指導:譚瑩

. 01 .人工智能的發(fā)展得益于芯片技術的發(fā)展芯片是未來人工智能發(fā)展的基礎

人工智能 (Artificial Intelligence,以下或簡稱AI)是開發(fā)模仿人類使用大腦去做一些事情的軟件的方法和概念的合集。這個舊領域近年來的快速發(fā)展很大程度上得益于芯片技術多年的積累,如果不是芯片技術已經(jīng)能夠給大規(guī)模機器學習提供足夠的處理能力,我們就無法看到戰(zhàn)勝人類頂尖棋手的AlphaGo。

芯片技術的發(fā)展是人工智能發(fā)展的必要條件 ,芯片代表著算力。人工智能的發(fā)展有幾大重要支柱,包括數(shù)據(jù)(事實或觀察的結(jié)果)、算法(解決問題的方法,如深度學習算法)和算力(運算能力)。從數(shù)據(jù)方面,互聯(lián)網(wǎng)時代下大數(shù)據(jù)高速積累,需要運行的數(shù)據(jù)量驟增,而現(xiàn)有算力難以匹配;從算法方面,即使存在邏輯上可用的算法,也需要有足夠算力才能處理數(shù)據(jù)樣本、訓練機器。由于算力的不可或缺和通信應用(智能手機等)增長的放緩,人工智能的發(fā)展也將成為芯片技術進步的主要驅(qū)動力。

從2016年開始,人工智能相關的芯片越來越熱。傳統(tǒng)芯片公司都有所布局,很多軟件和互聯(lián)網(wǎng)公司紛紛進入,初創(chuàng)公司的估值越來越高。

2017年可謂AI芯片元年,是過去的2017年人工智能方向最受關注的行業(yè)熱點。

進入2018年,AI芯片持續(xù)火熱,預計這股熱潮也將長時間影響人工智能領域。

. 02 .AI芯片元年開啟的標志性事件:Google論文公布TPU芯片細節(jié)

2017年4月,Google公布了一篇即將在ISCA2017上發(fā)表的論文:“In-Datacenter Performance Analysis of a Tensor Processing Unit”,終于公開了做AI芯片的細節(jié),使得這篇學術論文得到媒體的極大關注,也揭開了2017年AI芯片熱點事件的序幕?;仡橤oogle的這顆AI芯片,要從三年前開始。

起因——數(shù)據(jù)中心能耗大,嘗試用機器學習算法來解決實際問題,實踐驗證可行

在新加坡舉辦的Datacenter Dynamics 2014會議上,Google介紹了如何利用機器學習和人工智能進一步改進數(shù)據(jù)中心的能效。

公式:

衡量數(shù)據(jù)中心的能效指標PUE=數(shù)據(jù)中心總設備能耗/IT設備能耗

背景:

數(shù)據(jù)中心規(guī)模的快速增長使得能源效率優(yōu)化越來越重要,但使用傳統(tǒng)的工程公式難以準確推導數(shù)據(jù)中心的效率,在此瓶頸下Google決定利用機器學習神經(jīng)網(wǎng)絡算法。神經(jīng)網(wǎng)絡是一類機器學習算法,它模擬了神經(jīng)元之間相互作用的認知行為,用計算機的方式去模擬人腦。

結(jié)論:

實踐驗證了機器學習方法可以利用現(xiàn)有的傳感器數(shù)據(jù)來模擬數(shù)據(jù)中心能源效率優(yōu)化,并能實現(xiàn)10%-15%的節(jié)能,而且機器學習可以告知如何優(yōu)化數(shù)據(jù)中心的能效,包括模擬數(shù)據(jù)中心的參數(shù)配置評估、能效評估,并確定優(yōu)化方案等,是一種非常有效的運營利器。

算法溯源:

神經(jīng)網(wǎng)絡算法最初產(chǎn)生的目的是制造能模擬大腦的機器,人們想嘗試設計出模仿大腦的算法。這是一種古老的算法,并且在90年代的后期沉寂了一段時間,其中一個原因是這種算法的計算量偏大,算力不足。大概由于近些年計算機的運行速度變快,才足以真正運行起大規(guī)模的神經(jīng)網(wǎng)絡,對許多應用來說是最先進的技術,能很好地解決不同的機器學習問題,現(xiàn)在成為許多機器學習問題的首選。

對于人工智能,從某種意義上來說,如果我們能找出大腦的學習算法,然后在計算機上執(zhí)行大腦學習算法或與之相似的算法,也許這將是我們向人工智能邁進做出的最好的嘗試。

算法需要算力——針對特定算法,量身打造TPU芯片

從2015年以來,Google的數(shù)據(jù)中心部就署了TPU(Tensor Processing Unit),將其插放入數(shù)據(jù)中心機柜的硬盤驅(qū)動器插槽中使用。TPU是一個非常專用的處理器,該芯片針對機器學習專門優(yōu)化,因此可以使用更為強大的機器學習算法來完成快速計算。專用處理器的設計基于對目標應用的理解,因為Google更了解數(shù)據(jù)中心的需求,所以Google的TPU才會引起這么多關注。

神經(jīng)網(wǎng)絡的工作過程主要有兩個階段,分別是訓練和推理。訓練階段一般使用GPU(目前GPU還是訓練的最好平臺),而推理階段使用CPU和GPU都不適合,所以Google設計了TPU。

TPU是一個定制的ASIC(Application Specific Integrated Circuit,專用集成電路)架構處理器,從硬件層面適配TensorFlow深度學習系統(tǒng),應用于加速神經(jīng)網(wǎng)絡的推理階段,可以支持一些常見的神經(jīng)網(wǎng)絡。

TensorFlow是使用數(shù)據(jù)流和圖來做數(shù)值計算的開源軟件,用于機器智能。主要是由Google Brain團隊開發(fā)用于機器學習和深度神經(jīng)網(wǎng)絡的研究,能夠應用于廣泛的領域。

因為TPU芯片面向的應用是特定的算法,即確定性執(zhí)行模型(deterministic execution model),所以采用了一個專用處理器或者硬件加速器的架構,沒有使用傳統(tǒng)CPU和GPU的一些技術。這樣做比在GPU架構上改進要激進得多,與之相應,實現(xiàn)的效率也高得多。

2016年3月舉行的舉世矚目人機大戰(zhàn)里,在最終以4:1擊敗圍棋世界冠軍李世石的AlphaGo身上,Google使用了TPU芯片。

2016年6月,Google透露研發(fā)了一款在云端使用的專用AI芯片TPU(即第一代TPU)。

就此,傳統(tǒng)軟件巨頭Google的這顆AI芯片從幕后走到臺前,AI芯片競爭不限于傳統(tǒng)芯片廠商,最大的獨立GPU芯片廠商Nvidia上場。

. 03 .芯片元年之爭:傳統(tǒng)芯片廠商Nvidia步步跟進

2017年5月,GTC2017大會,Nvidia CEO黃仁勛發(fā)布了Volta架構GPU,股票大漲。

在現(xiàn)有的芯片中,GPU在人工智能應用中的其中一部分(深度學習神經(jīng)網(wǎng)絡的訓練階段)相對更適合。隨著人工智能發(fā)展驅(qū)動芯片技術進步,GPU扮演的角色可能是被改進或被其他類型的芯片替代。

多年來靠GPU一條產(chǎn)品線獨步天下的Nvidia,在最新的Volta架構強調(diào)對深度學習的支持,增加了專門為深度學習設計的Tensor Core,軟硬件的關鍵參數(shù)在數(shù)據(jù)中心的訓練方面很有優(yōu)勢。相比Google的TPU,這款AI芯片的設計中規(guī)中矩。

除發(fā)布芯片外,Nvidia也宣布開源DLA(Deep Learning Accelerator,深度學習加速器)。對于整個芯片產(chǎn)業(yè)來說,開源事件將會產(chǎn)生深遠影響,這意味著更多的初創(chuàng)公司和研究機構可以基于此開發(fā)推理加速器,促進AI的傳播,從而也進一步促進市場對GPU芯片的需求。

Nvidia決定開源可能有兩個原因:一是決定專注于加速模塊,不做種類過多的終端芯片(Nvidia曾試水移動設備芯片推出Tegra系列并失?。欢瞧扔贕oogle TPU芯片在推理方面的優(yōu)勢表現(xiàn),為應對壓力而作出決定(DLA來自Nvidia自動駕駛SoC中的一個模塊,最初并不是以開源IP為目的而設計的,且9月開源只公開了部分硬件代碼和相應的驗證環(huán)境,離真正能用有較大差距)。

2017年5月,在Google I/O大會上,Google公布了第二代TPU,并不對外銷售,以TPU Cloud的方式供大家使用。

2017年9月,芯片界的重要會議Hot Chips會議召開,AI相關內(nèi)容占了很大比例,微軟的BrainWave、百度的XPU、Jeff Dean的Keynote都是媒體的熱點話題。此次會議上,Google介紹了TPU和TPU2的情況并將其作為新的計算生態(tài)中重要的一環(huán)。

2017年10月,Intel發(fā)布Intel Nervana Neural Network Processor(Intel神經(jīng)網(wǎng)絡處理器芯片,以下簡稱NNP),第一代NNP代號“Lake Crest”,只提供給小部分合作伙伴,未能出貨。

回顧2017年的其他芯片巨頭動作,Intel收購了多家AI芯片相關領域公司 ,AMD則沒有那么積極。這一年里,芯片元年的主要戰(zhàn)事發(fā)生在傳統(tǒng)軟件巨頭Google和芯片巨頭Nvidia之間,發(fā)生在不同類型的公司、不同架構的AI芯片之間,這一跨界競爭或許意味著AI芯片不應被看作“算力代表、算力越大越好”的獨立底層硬件,而應該看作是實現(xiàn)應用目標中環(huán)環(huán)相扣的一部分。最終在人工智能的應用情況是系統(tǒng)的結(jié)果,芯片本身只是一小部分,其優(yōu)劣要考慮整個軟硬件生態(tài)的解決方案效果。因此,擁有應用、技術和資源優(yōu)勢的科技巨頭在定制硬件甚至芯片方面或常態(tài)化。

. 04 .2018年的后續(xù):巨頭的角逐繼續(xù)上演

2018年3月,GTC2018大會上,Nvidia發(fā)布了迄今最大的GPU,暫定自動駕駛暫停研發(fā),隨后股價下跌3.8%。

2018年5月,在Google I/O大會上,Google發(fā)布了TPU3。

同月,Intel人工智能開發(fā)者大會(AI DevCon 2018)發(fā)布了第二代NNP,代號“Spring Crest”,將是Intel第一款商業(yè) NNP 芯片,預計在2019年發(fā)貨。


主要參考材料:網(wǎng)絡公開報道,唐杉博士(公眾號:StarryHeavensAbove),Andrew NG機器學習課程等

文中如有錯誤之處,敬請指正,關于【人工智能】領域交流,

歡迎聯(lián)系本文作者:王麗萌(Wechat:18301232919)

 編輯: 陳文洋 

【轉(zhuǎn)載須知】

1、本報告為鯨準(ID:rong36kr)旗下專業(yè)的數(shù)據(jù)研究分析機構【鯨準研究院】原創(chuàng)作品,受《著作權法》保護,依法享有匯編權及注釋權;

2、轉(zhuǎn)載請聯(lián)系微信:wuyaoguaiguai,取得授權后方可轉(zhuǎn)載;

3、禁止商用轉(zhuǎn)載,禁止二次編輯轉(zhuǎn)載。

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多