小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

LeCun狂贊:600刀GPT-3.5平替! 斯坦福70億參數(shù)「羊駝」爆火,LLaMA殺瘋了

 520jefferson 2023-03-14 發(fā)布于北京

圖片

  新智元報(bào)道  

編輯:編輯部
【新智元導(dǎo)讀】Meta的LLaMA模型開(kāi)源,讓文本大模型迎來(lái)了Stable Diffustion時(shí)刻。今天,斯坦福發(fā)布了一個(gè)由LLaMA 7B微調(diào)的模型Alpaca,訓(xùn)練3小時(shí),性能比肩GPT-3.5。

一覺(jué)醒來(lái),斯坦福大模型Alpaca(草泥馬)火了。

圖片

沒(méi)錯(cuò),Alpaca是由Meta的LLaMA 7B微調(diào)而來(lái)的全新模型,僅用了52k數(shù)據(jù),性能約等于GPT-3.5。

關(guān)鍵是訓(xùn)練成本奇低,不到600美元。具體花費(fèi)如下:

在8個(gè)80GB A100上訓(xùn)練了3個(gè)小時(shí),不到100美元;

生成數(shù)據(jù)使用OpenAI的API,500美元。

圖片

斯坦福大學(xué)計(jì)算機(jī)科學(xué)副教授Percy Liang稱(chēng),

由于缺乏透明度/無(wú)法完全訪問(wèn)像GPT 3.5這樣的有能力的指令模型,進(jìn)而限制了這一重要領(lǐng)域的學(xué)術(shù)研究。我們?cè)?Alpaca (LLaMA 7B + text-davinci-003)上邁出了一小步。

圖片

看到又有人在自家大模型上取得了新的成果,Yann LeCun瘋狂轉(zhuǎn)發(fā)(宣傳要到位圖片)。

圖片

圖片

3小時(shí)微調(diào)70億參數(shù),600美元搞定


話(huà)不多說(shuō),先試用一波。

問(wèn):告訴我一些關(guān)于羊駝的事情。

答:羊駝是來(lái)自南美洲的駱駝品種,與美洲駝和駱駝?dòng)嘘P(guān)。它們通常因其纖維而被飼養(yǎng),用于制造奢侈品,如毛衣和毛毯。由于羊駝的溫柔和友好的天性,它們也是很受歡迎的寵物。

圖片

體驗(yàn)鏈接:https://crfm./alpaca/

圖片

對(duì)于斯坦福的團(tuán)隊(duì)來(lái)說(shuō),想要在預(yù)算內(nèi)訓(xùn)練一個(gè)高質(zhì)量的指令遵循模型,就必須面臨2個(gè)重要的挑戰(zhàn):要有一個(gè)強(qiáng)大的預(yù)訓(xùn)練語(yǔ)言模型,以及一個(gè)高質(zhì)量的指令遵循數(shù)據(jù)。

恰恰,提供給學(xué)術(shù)研究人員使用的LLaMA模型搞定了第一個(gè)問(wèn)題。

對(duì)于第二個(gè)挑戰(zhàn),「Self-Instruct: Aligning Language Model with Self Generated Instructions」論文給了很好的啟發(fā),即使用現(xiàn)有的強(qiáng)語(yǔ)言模型來(lái)自動(dòng)生成指令數(shù)據(jù)。

然而,LLaMA模型最大的弱點(diǎn)是缺乏指令微調(diào)。OpenAI最大的創(chuàng)新之一就是將指令調(diào)優(yōu)用在了GPT-3上。

對(duì)此,斯坦福使用了現(xiàn)有的大語(yǔ)言模型,來(lái)自動(dòng)生成遵循指令演示。

圖片

首先從自生成指令種子集中的175個(gè)人工編寫(xiě)的「指令-輸出」對(duì)開(kāi)始,然后,提示text-davinci-003使用種子集作為上下文示例來(lái)生成更多指令。

通過(guò)簡(jiǎn)化生成管道改進(jìn)了自生成指令的方法,這樣大大降低了成本。在數(shù)據(jù)生成過(guò)程中,產(chǎn)生了52K個(gè)獨(dú)特指令和相應(yīng)的輸出,使用OpenAI API的成本不到500美元。

有了這個(gè)指令遵循的數(shù)據(jù)集,研究人員利用Hugging Face的訓(xùn)練框架對(duì)LLaMA模型進(jìn)行微調(diào),利用了完全分片數(shù)據(jù)并行(FSDP)和混合精度訓(xùn)練等技術(shù)。

圖片

另外,微調(diào)一個(gè)7B的LLaMA模型在8個(gè)80GB的A100上花了3個(gè)多小時(shí),在大多數(shù)云計(jì)算供應(yīng)商那里的成本不到100美元。

約等于GPT-3.5


為了評(píng)估Alpaca,斯坦福研究人員對(duì)自生成指令評(píng)價(jià)集的輸入進(jìn)行了人工評(píng)估(由5位學(xué)生作者進(jìn)行)。

這個(gè)評(píng)價(jià)集是由自生成指令作者收集的,涵蓋了多樣化的面向用戶(hù)的指令,包括電子郵件寫(xiě)作、社交媒體和生產(chǎn)力工具等。

他們對(duì)GPT-3.5(text-davinci-003)和Alpaca 7B進(jìn)行了比較,發(fā)現(xiàn)這兩個(gè)模型的性能非常相似。Alpaca在與GPT-3.5的比較中,獲勝次數(shù)為90對(duì)89。

鑒于模型規(guī)模較小,且指令數(shù)據(jù)量不大,取得這個(gè)結(jié)果已經(jīng)是相當(dāng)驚人了。

除了利用這個(gè)靜態(tài)評(píng)估集,他們還對(duì)Alpaca模型進(jìn)行了交互式測(cè)試,發(fā)現(xiàn)Alpaca在各種輸入上的表現(xiàn)往往與GPT-3.5相似。

斯坦福用Alpaca進(jìn)行的演示:

演示一讓Alpaca來(lái)談?wù)勛约汉蚅LaMA的區(qū)別。

圖片

演示二讓Alpaca寫(xiě)了一封郵件,內(nèi)容簡(jiǎn)潔明了,格式也很標(biāo)準(zhǔn)。

圖片

上述例子可以看出,Alpaca的輸出結(jié)果一般都寫(xiě)得不錯(cuò),而且答案通常比ChatGPT簡(jiǎn)短,體現(xiàn)了GPT-3.5較短輸出的風(fēng)格。

當(dāng)然了,Alpaca表現(xiàn)出語(yǔ)言模型常見(jiàn)的缺陷。

比如,將坦桑尼亞的首都說(shuō)成了達(dá)累斯薩拉姆。實(shí)則,1974年之后,多多馬是坦桑尼亞的新首都了,達(dá)累斯薩拉姆只是坦桑尼亞最大的城市。

圖片

撰寫(xiě)周詳?shù)恼撐恼獣r(shí),Alpaca傳播了錯(cuò)誤的信息。

圖片

另外,Alpaca可能還存在許多與底層語(yǔ)言模型和指令微調(diào)數(shù)據(jù)相關(guān)的局限。然而,Alpaca為我們提供了一個(gè)相對(duì)輕量級(jí)的模型,它可以成為未來(lái)研究大模型重要缺陷的基礎(chǔ)。

目前,斯坦福僅公布了Alpaca的訓(xùn)練方法和數(shù)據(jù),并打算在未來(lái)發(fā)布模型的權(quán)重。

但是,Alpaca是不能用于商業(yè)用途,只能用于學(xué)術(shù)研究。具體原因有三:

1. LLaMA是一個(gè)非商業(yè)許可的模型,Alpaca是基于該模型生成的;

2. 指令數(shù)據(jù)是基于OpenAI的text-davinci-003,其使用條款禁止開(kāi)發(fā)與OpenAI競(jìng)爭(zhēng)的模型;

3. 沒(méi)有設(shè)計(jì)足夠多的安全措施,所以Alpaca還沒(méi)有做好廣泛使用的準(zhǔn)備

除此之外,斯坦福研究人員總結(jié)了Alpaca未來(lái)研究會(huì)有三個(gè)方向。

  • 評(píng)估:
從HELM(語(yǔ)言模型的整體評(píng)估)開(kāi)始捕捉更多的生成性、遵循指令的場(chǎng)景。
  • 安全:
進(jìn)一步研究Alpaca的風(fēng)險(xiǎn),并使用自動(dòng)紅隊(duì)分組、審計(jì)和適應(yīng)性測(cè)試等方法提高其安全性。
  • 理解:
希望能更好地理解模型能力是如何從訓(xùn)練方法中產(chǎn)生的。需要基礎(chǔ)模型的什么屬性?擴(kuò)大模型規(guī)模時(shí)會(huì)發(fā)生什么?需要指令數(shù)據(jù)的什么屬性?在GPT-3.5上,除了使用自生成指令,還有什么替代方法?

大模型的Stable Diffusion


現(xiàn)在,斯坦?!秆蝰劇怪苯颖痪W(wǎng)友奉為「文本大模型的Stable Diffusion」。
Meta的LLaMA模型可以免費(fèi)給研究人員使用(當(dāng)然需要申請(qǐng)后)簡(jiǎn)直利好AI圈友們。
自ChatGPT橫空出世以來(lái),讓許多人對(duì)AI模型的內(nèi)置限制感到沮喪。這些限制阻止ChatGPT討論OpenAI認(rèn)為敏感的話(huà)題。
圖片
因此,AI社區(qū)便希望能夠有一個(gè)開(kāi)源大語(yǔ)言模型(LLM),任何人都可以在本地運(yùn)行而無(wú)需審查,也無(wú)需向OpenAI支付API費(fèi)用。
要說(shuō)這樣開(kāi)源大模型現(xiàn)在也有,比如GPT-J,但美中不足的是需要大量的GPU內(nèi)存和存儲(chǔ)空間。
另一方面,其他開(kāi)源平替版無(wú)法在現(xiàn)成的消費(fèi)級(jí)硬件上擁有GPT-3級(jí)別的性能。
2月底,Meta推出了最新的語(yǔ)言模型LLaMA,參數(shù)量分別是70億(7B)、130億(13B)、330億(33B)和650億(65B)。評(píng)測(cè)結(jié)果顯示,其13B版本便可以與GPT-3相媲美。

圖片

論文地址:https://research./publications/llama-open-and-efficient-foundation-language-models/
雖然Meta向通過(guò)申請(qǐng)的研究人員開(kāi)放源代碼,但沒(méi)想到網(wǎng)友最先在GitHub上泄漏了LLaMA的權(quán)重。
自此,圍繞LLaMA語(yǔ)言模型的發(fā)展呈爆炸式增長(zhǎng)。
通常,運(yùn)行GPT-3需要多個(gè)數(shù)據(jù)中心級(jí)A100 GPU,再加上GPT-3的權(quán)重不是公開(kāi)的。
網(wǎng)友紛紛自己「操刀」運(yùn)行LLaMA模型一時(shí)引起了轟動(dòng)。
通過(guò)量化技術(shù)對(duì)模型大小進(jìn)行優(yōu)化,LLaMA現(xiàn)在可以在M1 Mac、較小Nvidia消費(fèi)者GPU、Pixel 6手機(jī)、甚至是樹(shù)莓派上運(yùn)行。
網(wǎng)友總結(jié)了,從LLaMA的發(fā)布到現(xiàn)在,大家利用LLaMA做出的一些成果:
圖片
2月24日,LLaMA發(fā)布,并在非商業(yè)許可下提供給政府、社區(qū)和學(xué)術(shù)界的研究人員和實(shí)體工作者;
3月2日,4chan網(wǎng)友泄露了全部的LLaMA模型;
3月10日,Georgi Gerganov創(chuàng)建了llama.cpp工具,可以在搭載M1/M2芯片的Mac上運(yùn)行LLaMA;
3月11日:通過(guò)llama.cpp可以在4GB RaspberryPi上運(yùn)行7B模型,但速度比較慢,只有10秒/token;
3月12日:LLaMA 7B在一個(gè)node.js執(zhí)行工具NPX上成功運(yùn)行;
3月13日:llama.cpp可以在Pixel 6手機(jī)上運(yùn)行;
而現(xiàn)在,斯坦福Alpaca「羊駝」發(fā)布。

One More Thing


項(xiàng)目沒(méi)放出多久,Alpaca火爆到直接不能用了....
圖片
許多網(wǎng)友吵吵,點(diǎn)「生成」沒(méi)反應(yīng),還有的在排隊(duì)等玩兒。
圖片
參考資料:
https:///2023/Mar/13/alpaca/
https://crfm./2023/03/13/alpaca.html

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多