小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

《網(wǎng)轉(zhuǎn)-木易文》手把手教你本地部署DeepSeek-R1:3步搞定,有手就行!

 fyfcnn 2025-02-11 發(fā)布于黑龍江

今天我們繼續(xù)。

話接上文,如何使用上穩(wěn)定可靠不繁忙、不跑路、不卡頓、不截?cái)嗟?code>DeepSeek-R1是AI沖浪的一切前提。今天出一期DeepSeek-R1本地部署的手把手教程。僅需3步,低代碼,盡量用最簡單的方式教會(huì)你在自己的電腦上部署屬于你自己的DeepSeek-R1模型。

話不多說,直接開整,集合!

第1步:安裝 Ollama

https:///

本地部署推薦使用開源工具Ollama,對小白極其友好——既提供命令行界面,又提供圖形界面,讓你能夠方便地管理和使用本地的AI模型。

打開上面那個(gè)Ollama官網(wǎng),點(diǎn)擊下載,按照你的電腦類型下載對應(yīng)的客戶端。Ollama支持macOS、Windows和Linux。

接下來的操作以macOS為例。

雙擊打開Ollama客戶端安裝包,點(diǎn)擊Next

點(diǎn)擊Install安裝Ollama的命令行工具(CLI)。這一步可能會(huì)讓你輸入系統(tǒng)密碼。

點(diǎn)擊Finish,安裝完成。到這里,這一步就大功告成了。

不放心的小伙伴可以雙重驗(yàn)證一下Ollama是不是真正安裝完成了。打開終端運(yùn)行下面這個(gè)命令。正常來說會(huì)輸出Ollama的版本號,如“ollama version is 0.5.7”。

# 驗(yàn)證安裝
ollama --version

第2步:下載 DeepSeek-R1 模型

有了Ollama,就可以通過Ollama方便地下載DeepSeek-R1模型了。Ollama共提供7個(gè)不同參數(shù)量的DeepSeek-R1模型。

參數(shù)量越大,代表模型推理能力越強(qiáng),滿血版的DeepSeek-R1參數(shù)量為671B。

同時(shí),每個(gè)參數(shù)量的模型所需的計(jì)算資源也各不相同,這里我總結(jié)了一份這7個(gè)模型各自所需的配置,供參考。其中,deepseek-r1:1.5b僅靠CPU也能跑起來,不放心的可以先從這個(gè)最小的模型玩起。

打開終端,輸入下面這行代碼下載模型。注意,把代碼里的“1.5b”替換成你想要安裝的模型,比如“7b”,“8b”。

# 入門推薦(1.5B,資源占用最低)
ollama pull deepseek-r1:1.5b

下載進(jìn)度顯示100%即完成,1.5B模型大小約1.1GB,7B模型大約4.7GB,8B為4.9GB。因?yàn)橄螺d速度受限,我這里以1.5B模型為例。

安裝完成后會(huì)自動(dòng)進(jìn)入模型會(huì)話模式,意味著你已經(jīng)可以開始和你的專屬模型聊天了!

比如下面這樣。

  • 測試:你誰啊

  • 回答:您好!我是由中國的深度求索(DeepSeek)公司開發(fā)的智能助手DeepSeek-R1。如您有任何任何問題,我會(huì)盡我所能為您提供幫助。

其實(shí)到這里,整個(gè)本地部署的過程就已經(jīng)完成了,是不是超級簡單,有手就行!

但這還只是第2步,接下來還有第3步。為什么?因?yàn)?strong>圖形界面!總不能讓小伙伴們一直在終端里使用DeepSeek-R1吧,我們需要一個(gè)客戶端。

第3步:在Chatbox里使用本地部署的模型

https://chatboxai.app/zh

之前在《DeepSeek R1 個(gè)人知識庫,直接起飛!》介紹過了第三方客戶端Cherry Studio,今天趁著這個(gè)機(jī)會(huì)介紹另一款也很好用的客戶端:Chatbox。

相比Cherry Studio,Chatbox支持的客戶端類型更多更全,從桌面客戶端到手機(jī)app,都支持。按照上面的Chatbox官網(wǎng)鏈接下載安裝即可。

接下來重點(diǎn)講怎么把部署在本地電腦上的DeepSeek-R1集成到Chatbox里使用。

打開Chatbox,點(diǎn)擊左下角的設(shè)置,在模型提供方里找到Ollama API。API連接點(diǎn)直接用默認(rèn)的http://localhost:11434,然后選擇你安裝好的DeepSeek-R1模型,比如我這里就是deepseek-r1:1.5b。最后點(diǎn)擊保存,大功告成。

設(shè)置好,就可以和你自己部署的模型聊起來了!

寫在最后

小參數(shù)模型的優(yōu)勢是需要的算力資源小,便于本地部署使用;但隨之而來的是推理能力的“驟降”。比如下面這樣。

再嘗試一次,雖然能回答了,但答案屬實(shí)很離譜。

寫文章的過程中,我又下載安裝了一個(gè)7B版本的DeepSeek-R1,思考比1.5B好了不少,但仍然回答不對“平頭哥問題”。

所以,如果想要進(jìn)行比較復(fù)雜的任務(wù),比如科研、數(shù)學(xué)、代碼等等,還是去尋求滿血版DeepSeek-R1的API服務(wù)更合適。

如果只是進(jìn)行一些普通任務(wù),或者對數(shù)據(jù)隱私和數(shù)據(jù)安全有很高的要求,那么毫無疑問,本地部署更合適。


我是木易,一個(gè)專注AI領(lǐng)域的技術(shù)產(chǎn)品經(jīng)理,國內(nèi)Top2本科 美國Top10 CS碩士。

相信AI是普通人的“外掛”,致力于分享AI全維度知識。這里有最新的AI科普、工具測評、效率秘籍與行業(yè)洞察。

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多