|
LLMs之InternLM:InternLM/InternLM-7B模型的簡(jiǎn)介、安裝、使用方法之詳細(xì)攻略
InternLM模型的簡(jiǎn)介? ? ? ? ?2023年6月7日,上海人工智能實(shí)驗(yàn)室(上海AI實(shí)驗(yàn)室)、商湯科技聯(lián)合香港中文大學(xué)、復(fù)旦大學(xué)及上海交通大學(xué)發(fā)布千億級(jí)參數(shù)大語(yǔ)言模型“書生·浦語(yǔ)”(InternLM)?!皶て终Z(yǔ)”具有?1040億參數(shù),是在包含1.6萬(wàn)億token的多語(yǔ)種高質(zhì)量數(shù)據(jù)集上訓(xùn)練而成。全面評(píng)測(cè)結(jié)果顯示,“書生·浦語(yǔ)”不僅在知識(shí)掌握、閱讀理解、數(shù)學(xué)推理、多語(yǔ)翻譯等多個(gè)測(cè)試任務(wù)上表現(xiàn)優(yōu)秀,而且具備很強(qiáng)的綜合能力,因而在綜合性考試中表現(xiàn)突出,在多項(xiàng)中文考試中取得超越ChatGPT的成績(jī),其中就包括中國(guó)高考各科目的數(shù)據(jù)集(GaoKao)。
? ? ? ? ?提供了支持模型預(yù)訓(xùn)練的輕量級(jí)訓(xùn)練框架,無(wú)需安裝大量依賴包,一套代碼支持千卡預(yù)訓(xùn)練和單卡人類偏好對(duì)齊訓(xùn)練,同時(shí)實(shí)現(xiàn)了極致的性能優(yōu)化,實(shí)現(xiàn)千卡訓(xùn)練下近90%加速效率。 GitHub地址:GitHub - InternLM/InternLM: InternLM has open-sourced a 7 billion parameter base model, a chat model tailored for practical scenarios and the training system. 論文地址:https://github.com/InternLM/InternLM-techreport/blob/main/InternLM.pdf InternLM-techreport:GitHub - InternLM/InternLM-techreport 1、InternLM的techreport? ? ? ? 我們推出了InternLM,一個(gè)具有1,040億參數(shù)的多語(yǔ)言基礎(chǔ)語(yǔ)言模型。InternLM使用多階段漸進(jìn)式的過(guò)程,在1.6T個(gè)標(biāo)記的大型語(yǔ)料庫(kù)上進(jìn)行預(yù)訓(xùn)練,然后通過(guò)微調(diào)來(lái)與人類喜好相匹配。我們還開發(fā)了一個(gè)名為Uniscale-LLM的訓(xùn)練系統(tǒng),用于高效的大型語(yǔ)言模型訓(xùn)練。在多個(gè)基準(zhǔn)測(cè)試上的評(píng)估表明,InternLM在多個(gè)方面,包括知識(shí)理解、閱讀理解、數(shù)學(xué)和編碼方面,均實(shí)現(xiàn)了最先進(jìn)的性能。憑借如此全面的能力,InternLM在包括MMLU、AGIEval、C-Eval和GAOKAO-Bench在內(nèi)的綜合考試中取得了出色的表現(xiàn),而無(wú)需使用外部工具。在這些基準(zhǔn)測(cè)試中,InternLM不僅表現(xiàn)優(yōu)于開源模型,而且相對(duì)于ChatGPT也獲得了更優(yōu)異的性能。此外,InternLM展示了出色的理解中文語(yǔ)言和中華文化的能力,這使得它成為支持面向中文語(yǔ)言應(yīng)用的基礎(chǔ)模型的合適選擇。本文詳細(xì)介紹了我們的結(jié)果,包括跨越各種知識(shí)領(lǐng)域和任務(wù)的基準(zhǔn)測(cè)試和示例。 (1)、主要結(jié)果? ? ? ? 隨著最新的大型語(yǔ)言模型開始展現(xiàn)人類級(jí)別的智能,針對(duì)人類設(shè)計(jì)的考試,如中國(guó)的高考、美國(guó)的SAT和GRE,被視為評(píng)估語(yǔ)言模型的重要手段。值得注意的是,在其關(guān)于GPT-4的技術(shù)報(bào)告中,OpenAI通過(guò)跨多個(gè)領(lǐng)域的考試對(duì)GPT-4進(jìn)行了測(cè)試,并將考試成績(jī)作為關(guān)鍵結(jié)果。 MMLU:基于各種美國(guó)考試構(gòu)建的多任務(wù)基準(zhǔn)測(cè)試,涵蓋了小學(xué)數(shù)學(xué)、物理、化學(xué)、計(jì)算機(jī)科學(xué)、美國(guó)歷史、法律、經(jīng)濟(jì)、外交等多個(gè)學(xué)科。
AGIEval:由微軟研究開發(fā)的基準(zhǔn)測(cè)試,用于評(píng)估語(yǔ)言模型通過(guò)人類導(dǎo)向的考試的能力,包括19個(gè)任務(wù)集,派生自中國(guó)和美國(guó)的各種考試,例如中國(guó)的高考和律師資格考試,以及美國(guó)的SAT、LSAT、GRE和GMAT。在這19個(gè)任務(wù)集中,有9個(gè)基于中國(guó)的高考(Gaokao),我們將其單獨(dú)列為一個(gè)重要的集合,稱為AGIEval(GK)。
C-Eval:用于評(píng)估中文語(yǔ)言模型的綜合基準(zhǔn)測(cè)試,包含52個(gè)學(xué)科的近14,000道問(wèn)題,涵蓋數(shù)學(xué)、物理、化學(xué)、生物、歷史、政治、計(jì)算機(jī)和其他學(xué)科,以及公務(wù)員、注冊(cè)會(huì)計(jì)師、律師和醫(yī)生的專業(yè)考試。
GAOKAO-Bench:基于中國(guó)的高考的綜合基準(zhǔn)測(cè)試,包括高考的所有科目。它提供不同類型的問(wèn)題,包括多項(xiàng)選擇、填空和問(wèn)答。為了簡(jiǎn)潔起見(jiàn),我們將這個(gè)基準(zhǔn)測(cè)試簡(jiǎn)稱為高考。
2、InternLM-7B模型的簡(jiǎn)介? ? ?InternLM ,即書生·浦語(yǔ)大模型,包含面向?qū)嵱脠?chǎng)景的70億參數(shù)基礎(chǔ)模型 (InternLM-7B)。模型具有以下特點(diǎn):
官網(wǎng):internlm/internlm-7b · Hugging Face 3、InternLM、InternLM-7B模型的性能評(píng)測(cè)? ? ?我們使用開源評(píng)測(cè)工具?OpenCompass?從學(xué)科綜合能力、語(yǔ)言能力、知識(shí)能力、推理能力、理解能力五大能力維度對(duì)InternLM開展全面評(píng)測(cè),部分評(píng)測(cè)結(jié)果如下表所示,歡迎訪問(wèn)?OpenCompass 榜單?獲取更多的評(píng)測(cè)結(jié)果。
4、InternLM-7B模型的局限性? ? ? ? 盡管在訓(xùn)練過(guò)程中我們非常注重模型的安全性,盡力促使模型輸出符合倫理和法律要求的文本,但受限于模型大小以及概率生成范式,模型可能會(huì)產(chǎn)生各種不符合預(yù)期的輸出,例如回復(fù)內(nèi)容包含偏見(jiàn)、歧視等有害內(nèi)容,請(qǐng)勿傳播這些內(nèi)容。由于傳播不良信息導(dǎo)致的任何后果,本項(xiàng)目不承擔(dān)責(zé)任。 InternLM-7B模型的安裝1、Model Zoo當(dāng)前通過(guò) InternLM 訓(xùn)練的 InternLM 7B 和 InternLM 7B Chat 已經(jīng)開源,我們提供兩種格式的模型權(quán)重以供使用。除了使用 Transformers 格式加載模型之外,還可以通過(guò) InternLM 加載以下格式的權(quán)重直接進(jìn)行繼續(xù)預(yù)訓(xùn)練或人類偏好對(duì)齊訓(xùn)練
2、InternLM 7B下載地址下載地址:https:///internlm/internlm-7b/tree/main
InternLM模型的高性能部署1、使用?LMDeploy?完成 InternLM 的一鍵部署。首先安裝 LMDeploy:
快速的部署命令如下:
在導(dǎo)出模型后,你可以直接通過(guò)如下命令啟動(dòng)服務(wù)一個(gè)服務(wù)并和部署后的模型對(duì)話
完整部署教程:GitHub - InternLM/lmdeploy: LMDeploy is a toolkit for compressing, deploying, and serving LLM 2、微調(diào)&訓(xùn)練預(yù)訓(xùn)練與微調(diào)使用教程請(qǐng)參考使用教程開始InternLM的安裝、數(shù)據(jù)處理、預(yù)訓(xùn)練與微調(diào)。 轉(zhuǎn)換為 Transformers 格式使用通過(guò) InternLM 進(jìn)行訓(xùn)練的模型可以很輕松地轉(zhuǎn)換為 HuggingFace Transformers 格式,方便與社區(qū)各種開源項(xiàng)目無(wú)縫對(duì)接。借助?
轉(zhuǎn)換之后可以通過(guò)以下的代碼加載為 transformers
3、訓(xùn)練系統(tǒng)InternLM系統(tǒng)結(jié)構(gòu)代碼文件結(jié)構(gòu)
訓(xùn)練性能InternLM 深度整合了 Flash-Attention, Apex 等高性能模型算子,提高了訓(xùn)練效率。通過(guò)構(gòu)建 Hybrid Zero 技術(shù),實(shí)現(xiàn)計(jì)算和通信的高效重疊,大幅降低了訓(xùn)練過(guò)程中的跨節(jié)點(diǎn)通信流量。InternLM 支持 7B 模型從 8 卡擴(kuò)展到 1024 卡,千卡規(guī)模下加速效率可高達(dá) 90%,訓(xùn)練吞吐超過(guò) 180TFLOPS,平均單卡每秒處理的 token 數(shù)量超過(guò)3600。下表為 InternLM 在不同配置下的擴(kuò)展性測(cè)試數(shù)據(jù):
TGS 代表平均每GPU每秒可以處理的 Token 數(shù)量。更多的性能測(cè)試數(shù)據(jù)可參考訓(xùn)練性能文檔進(jìn)一步了解。 InternLM-7B模型的使用方法1、通過(guò)以下的代碼加載 InternLM 7B Chat 模型
2、InternLM 7B Chat 模型的使用方法(1)、通過(guò)以下的代碼加載 InternLM 7B Chat 模型
(2)、通過(guò)前端網(wǎng)頁(yè)對(duì)話可以通過(guò)以下代碼啟動(dòng)一個(gè)前端的界面來(lái)與 InternLM Chat 7B 模型進(jìn)行交互
|
|
|