小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

卷入大模型,手機(jī)廠商的新敘事|甲子光年

 天承辦公室 2023-08-16 發(fā)布于山東

圖片

手機(jī)上跑大模型,有必要嗎?

作者|武靜靜

編輯|栗子

小米的大模型在雷軍2023年年度演講中首次公開(kāi)亮相。

雷軍提到,和很多互聯(lián)網(wǎng)平臺(tái)的思路不同,小米大模型的重點(diǎn)突破方向是輕量化和本地部署,能在手機(jī)端側(cè)跑通。

他稱,目前,13億參數(shù)規(guī)模的MiLM1.3B模型已經(jīng)在手機(jī)上跑通,且效果可以媲美60億參數(shù)的大模型在云端運(yùn)算的結(jié)果。在他曬出的成績(jī)單中,小米端側(cè)大模型在CMMLU中文評(píng)估的各項(xiàng)主題中都比智譜AI的ChatGLM2-6B模型表現(xiàn)好,和百川智能的Baichuan-13B大模型的得分差距約在5分左右。

圖片

(圖源:小米)

此前,小米開(kāi)發(fā)的大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型MiLM-6B/1.3B已經(jīng)登陸代碼托管平臺(tái)GitHub,并在C-Eval總榜單排名第十、同參數(shù)量級(jí)排名第一,在中文大模型基準(zhǔn)“CMMLU”上,“MiLM-6B”排名第一。

當(dāng)然,由于這些測(cè)試榜單的維度都是公開(kāi)的,根據(jù)測(cè)試任務(wù)進(jìn)行刷榜刷分對(duì)于很多大模型公司并非難事,所以這些測(cè)評(píng)結(jié)果只能作為參考,并不意味著效果上的絕對(duì)優(yōu)秀。

同時(shí),雷軍也宣布小愛(ài)同學(xué)作為小米大模型第一個(gè)應(yīng)用的業(yè)務(wù),已經(jīng)進(jìn)行了全新的升級(jí),并正式開(kāi)啟邀測(cè)。

這是從今年4月宣布新設(shè)立大模型團(tuán)隊(duì)以來(lái),小米在4個(gè)月時(shí)間中做出的階段性大模型成果。

小米的實(shí)踐給大模型落地帶來(lái)什么新思考?對(duì)于借助新技術(shù)迭代的手機(jī)廠商而言,又意味著什么?

1.小米不做通用大模型,核心團(tuán)隊(duì)約30人

圖片

小米在大模型路線上屬于理性派——不追求參數(shù)規(guī)模,不做通用大模型。

此前在財(cái)報(bào)電話會(huì)上,小米集團(tuán)總裁盧偉冰就對(duì)外稱,小米會(huì)積極擁抱大模型,方向是與產(chǎn)品和業(yè)務(wù)深度結(jié)合,不會(huì)像OpenAI一樣去做通用大模型。

根據(jù)深燃此前的報(bào)道,小米集團(tuán)AI實(shí)驗(yàn)室主任王斌博士曾說(shuō),小米不會(huì)單獨(dú)發(fā)布一款類(lèi)ChatGPT產(chǎn)品,自研大模型最終會(huì)由產(chǎn)品帶出來(lái),相關(guān)投入約幾千萬(wàn)人民幣級(jí)別。

他說(shuō):“對(duì)于大模型,我們屬于理智派。小米有應(yīng)用場(chǎng)景優(yōu)勢(shì),我們看到的是大模型跟場(chǎng)景結(jié)合的巨大機(jī)會(huì)?!?/span>

他透露,在ChatGPT誕生之前,小米內(nèi)部做過(guò)大模型相關(guān)的研發(fā)和應(yīng)用,當(dāng)時(shí)是通過(guò)預(yù)訓(xùn)練+下游任務(wù)監(jiān)督微調(diào)的方式來(lái)做人機(jī)對(duì)話,參數(shù)規(guī)模在28億到30億。這主要是在預(yù)訓(xùn)練基座模型的基礎(chǔ)上,通過(guò)對(duì)話數(shù)據(jù)的微調(diào)實(shí)現(xiàn)的,并非現(xiàn)在所說(shuō)的通用大模型。

根據(jù)公開(kāi)資料,目前小米大模型團(tuán)隊(duì)負(fù)責(zé)人為AI語(yǔ)音方向?qū)<覚鑴?,向技術(shù)委員會(huì)副主席、AI實(shí)驗(yàn)室主任王斌匯報(bào)。整個(gè)大模型團(tuán)隊(duì)有30人左右。

欒劍曾是智能語(yǔ)音機(jī)器人“微軟小冰”首席語(yǔ)音科學(xué)家及語(yǔ)音團(tuán)隊(duì)負(fù)責(zé)人,曾任東芝(中國(guó))研究院研究員、微軟(中國(guó))工程院高級(jí)語(yǔ)音科學(xué)家。加入小米后,欒劍曾先后負(fù)責(zé)語(yǔ)音生成、NLP等團(tuán)隊(duì),以及相關(guān)技術(shù)在小愛(ài)同學(xué)等產(chǎn)品中落地。王斌2018年加入小米,2019年起負(fù)責(zé)AI實(shí)驗(yàn)室,加入小米前曾是中國(guó)科學(xué)院信息工程研究所研究員、博導(dǎo),在信息檢索與自然語(yǔ)言處理領(lǐng)域有近30年研究經(jīng)驗(yàn)。

做大模型也依托于小米背后的AI團(tuán)隊(duì),雷軍稱,小米的AI團(tuán)隊(duì)經(jīng)過(guò)7年時(shí)間,6次擴(kuò)展,已經(jīng)超過(guò)3000人,覆蓋了CV、NLP、AI影像、自動(dòng)駕駛、機(jī)器人等多個(gè)領(lǐng)域。

圖片
(圖源:小米)



2.谷歌、高通、華為紛紛入局

圖片

小米之外,讓大模型跑在手機(jī)上是很多科技公司當(dāng)前的重點(diǎn)目標(biāo)。

科技公司正在想象大模型帶來(lái)這樣一種可能性:不管你打開(kāi)的是WPS、石墨文檔還是郵件,只要輸入寫(xiě)作等指令,手機(jī)就可以調(diào)用本地能力生成完整的一篇文章或者一封郵件。手機(jī)端,所有的App都可以隨時(shí)調(diào)用本地的大模型來(lái)幫忙處理工作和解決生活問(wèn)題,人和手機(jī)上各種App的交互也不再是頻繁的點(diǎn)擊,而是通過(guò)語(yǔ)音就能進(jìn)行智能召喚。

很多公司正在想方設(shè)法地壓縮模型體積,讓大模型在手機(jī)上的本地運(yùn)行變得更實(shí)用且經(jīng)濟(jì)。在今年5月的Google I/O大會(huì)上,谷歌發(fā)布PaLM2時(shí),按照規(guī)模大小分為四種規(guī)格,從小到大依次為Gecko、Otter、Bison和Unicorn,其中體積最小的Gecko可以在手機(jī)上運(yùn)行,并且速度很快,每秒可處理20個(gè)標(biāo)記,大約相當(dāng)于16或17個(gè)單詞,也可支持手機(jī)離線狀態(tài)運(yùn)行。但當(dāng)時(shí)谷歌沒(méi)說(shuō)這款模型會(huì)具體用在哪一款手機(jī)上。

目前已經(jīng)拿出具體成績(jī)的是高通。在今年3月的2023MWC上,高通在搭載第二代驍龍8的智能手機(jī)上,運(yùn)行了超過(guò)10億參數(shù)的文生圖模型Stable Diffusion。演示中,工作人員在一部沒(méi)有聯(lián)網(wǎng)的安卓手機(jī)上用Stable Diffusion生成了圖像,整個(gè)過(guò)程用了15秒。

6月的計(jì)算機(jī)視覺(jué)學(xué)術(shù)頂會(huì)CVPR上,高通又展示了在安卓手機(jī)上運(yùn)行15億參數(shù)規(guī)模的ControlNet模型,出圖時(shí)間僅用了11.26 秒。高通產(chǎn)品管理高級(jí)副總裁兼AI負(fù)責(zé)人Ziad Asghar稱:從技術(shù)上,把這些超10億參數(shù)大模型搬進(jìn)手機(jī),只需要不到一個(gè)月的時(shí)間。

最新的動(dòng)作是高通宣布和Meta合作,探索基于高通驍龍芯片,在不聯(lián)網(wǎng)的情況下,在智能手機(jī)、PC、AR / VR頭顯設(shè)備、汽車(chē)等設(shè)備上,運(yùn)行基于Llama 2模型的應(yīng)用和服務(wù)。高通稱,和基于云端的LLM相比,在設(shè)備本地運(yùn)行Llama 2 等大型語(yǔ)言模型,不僅成本更低,性能更好,且不需要連接到在線服務(wù),服務(wù)也更個(gè)性化、更安全和更私密。

尚未官宣任何大模型動(dòng)作的蘋(píng)果也正在探索大模型在設(shè)備端側(cè)的落地。據(jù)《金融時(shí)報(bào)》報(bào)道,蘋(píng)果正在全面招聘工程師和研究人員來(lái)壓縮大語(yǔ)言模型,以便它們能夠在iPhone和iPad上高效運(yùn)行,主要負(fù)責(zé)的團(tuán)隊(duì)是機(jī)器智能和神經(jīng)設(shè)計(jì) (MIND) 團(tuán)隊(duì)。

目前,在Github上,一個(gè)熱門(mén)的開(kāi)源模型MLC LLM項(xiàng)目就可以支持本地部署,它通過(guò)仔細(xì)規(guī)劃分配和積極壓縮模型參數(shù)來(lái)解決內(nèi)存限制,可以在iPhone等各類(lèi)硬件設(shè)備上運(yùn)行AI模型。該項(xiàng)目是由CMU助理教授,OctoML CTO陳天奇等多位研究者共同開(kāi)發(fā)的,團(tuán)隊(duì)以機(jī)器學(xué)習(xí)編譯(MLC)技術(shù)為基礎(chǔ)來(lái)高效部署AI模型。MLC-LLM上線不到兩天,GitHub的Star量已經(jīng)接近一千。有人已經(jīng)測(cè)試了在iPhone的飛行模式下本地跑大語(yǔ)言模型。

和國(guó)外谷歌、高通強(qiáng)調(diào)大模型在端側(cè)本地部署,可以離線運(yùn)行不同,目前國(guó)內(nèi)手機(jī)廠商優(yōu)先考慮的是將大模型落地在手機(jī)語(yǔ)音助手或者現(xiàn)有的圖片搜索功能上,這種升級(jí)本質(zhì)還是調(diào)用更多云端能力來(lái)使用大模型。

此次,小米就是將大模型用在了語(yǔ)音助手小愛(ài)同學(xué)上。但由于目前小米端側(cè)大模型相關(guān)信息尚未披露,無(wú)法準(zhǔn)確判斷之后小米大模型的發(fā)展路徑。從雷軍強(qiáng)調(diào)的本地部署和輕量化的方向來(lái)看,未來(lái)小米可能會(huì)嘗試大模型在手機(jī)端離線運(yùn)行。

華為也在嘗試大模型在手機(jī)端的落地,不過(guò)重點(diǎn)瞄準(zhǔn)的依舊是手機(jī)語(yǔ)音助手和搜圖場(chǎng)景。此前4月,華為新發(fā)布的手機(jī)P60上,智慧搜圖新功能背后就是多模態(tài)大模型技術(shù),過(guò)程中在手機(jī)端側(cè)對(duì)模型進(jìn)行小型化處理。近期,華為新升級(jí)的終端智能助手小藝也基于大模型進(jìn)行體驗(yàn)優(yōu)化,可以根據(jù)語(yǔ)音提示推薦餐廳、進(jìn)行摘要總結(jié)等新功能。

OPPO、vivo也在這個(gè)方向發(fā)力,8月13日,OPPO宣布,基于AndesGPT打造的全新小布助手即將開(kāi)啟體驗(yàn),從資料中可以看到,小布助手集合大模型能力之后,在對(duì)話、文案撰寫(xiě)等方面的能力會(huì)有所加強(qiáng)。AndesGPT是OPPO 安第斯智能云團(tuán)隊(duì)打造的基于混合云架構(gòu)的生成式大語(yǔ)言模型。

對(duì)于手機(jī)廠商而言,不管是本地部署,還是調(diào)用云端能力,大模型之于手機(jī),都是一個(gè)不可錯(cuò)失的新機(jī)會(huì)。



3.大模型跑在手機(jī)上,關(guān)鍵難題在哪兒?

圖片

讓大模型跑在手機(jī)上不是一件容易的事。

算力是首要問(wèn)題。在手機(jī)端使用大模型,不僅需要調(diào)用云端算力還需要調(diào)用終端設(shè)備的算力,由于大模型的大資源消耗,每一次的調(diào)用都意味著很高的成本。Alphabet董事長(zhǎng)John Hennessy曾提到,用大語(yǔ)言模型的搜索成本比此前的關(guān)鍵詞搜索成本高出10倍。去年,谷歌有3.3萬(wàn)億次搜索查詢,成本約為每次五分之一美分。華爾街分析師預(yù)測(cè),如果谷歌用大語(yǔ)言模型來(lái)處理一半的搜索問(wèn)題,每次提供的答案為50個(gè)單詞左右,到2024年,谷歌可能面臨60億美元的支出增長(zhǎng)。

圖片

(圖源:路透社)


手機(jī)端運(yùn)行大模型面對(duì)類(lèi)似的成本難題,在高通發(fā)布的《混合AI是AI的未來(lái)》報(bào)告中提到,就像傳統(tǒng)計(jì)算從大型主機(jī)和客戶端,演變?yōu)楫?dāng)前云端和邊緣終端相結(jié)合的模式一樣,端側(cè)運(yùn)行大模型也需要混合AI架構(gòu),讓云端和邊緣終端之間分配并協(xié)調(diào)AI工作負(fù)載,從而能讓手機(jī)廠商利用邊緣終端的計(jì)算能力降低成本。讓大模型實(shí)現(xiàn)本地部署就是出于這一成本問(wèn)題的考量。

此外,手機(jī)作為每個(gè)人的私人物品,是數(shù)據(jù)產(chǎn)生的地方,本地也存放著大量的私人數(shù)據(jù),如果能夠?qū)崿F(xiàn)進(jìn)行本地部署,在安全性、隱私等方面為個(gè)人提供了保障。

這就帶來(lái)了第二個(gè)難題,如果想更多地調(diào)用端側(cè)能力來(lái)運(yùn)行大模型,如何讓手機(jī)的能耗很低,同時(shí)還能讓模型的效果很強(qiáng)?

高通曾對(duì)外稱,之所以能將大模型部署到手機(jī)等本地設(shè)備上,關(guān)鍵能力在于高通軟硬件全棧式的AI優(yōu)化,其中包括高通AI模型增效工具包(AIMET)、高通AI引擎和高通AI軟件棧等相關(guān)技術(shù),可以壓縮模型體積,加速了推理,并降低運(yùn)行時(shí)延和功耗。高通全球副總裁兼高通AI研究負(fù)責(zé)人侯紀(jì)磊曾提到,高通在高效能AI研發(fā)中,一個(gè)重要的部分是整體模型效率研究,目的是在多個(gè)方向縮減AI模型,使其在硬件上高效運(yùn)行。

單模型壓縮就是一個(gè)不小的難點(diǎn)。有的模型壓縮會(huì)對(duì)大模型的性能造成損失,有一些技術(shù)方式可以做到無(wú)損壓縮,這些都需要借助各種工具進(jìn)行不同方向的工程化嘗試。

這些關(guān)鍵的軟硬件能力對(duì)于手機(jī)廠商而言都是很大挑戰(zhàn)。如今,很多手機(jī)廠商都邁出了在手機(jī)上跑大模型的第一步。接下來(lái),如何讓更好的大模型,更經(jīng)濟(jì)、更高效地落在每一部手機(jī)中反而是更難、更關(guān)鍵的一步。

冒險(xiǎn)才剛剛開(kāi)始。

(封面圖來(lái)源:小米)

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類(lèi)似文章 更多