發(fā)文章
發(fā)文工具
撰寫
網(wǎng)文摘手
文檔
視頻
思維導(dǎo)圖
隨筆
相冊
原創(chuàng)同步助手
其他工具
圖片轉(zhuǎn)文字
文件清理
AI助手
留言交流
來自: netouch > 《我的圖書館》
0條評論
發(fā)表
請遵守用戶 評論公約
一行命令,本地、離線運行大模型
一行命令,本地、離線運行大模型Ollama簡介。Mistral OpenOrca是一個7億參數(shù)的模型,在Mistral 7B模型的基礎(chǔ)上使用OpenOrca數(shù)據(jù)集進行了...
飄了!本地跑72B大模型,無需GPU,速度快
本地跑72B大模型,無需GPU,速度快。本地跑72B大模型,無需GPU,速度快飄了!新年期間,通義千問發(fā)布了 Qwen1.5 大模型,包括0.5B、1.8B、4B、7B、14B和72B各個尺寸的大模型。這次發(fā)布的 Qwen1.5 最大...
微軟發(fā)布13億個參數(shù)的微型AI代碼編程模型,性能上超越GPT-3.5
微軟發(fā)布13億個參數(shù)的微型AI代碼編程模型,性能上超越GPT-3.5微軟的AI研究人員發(fā)布了一款名為phi-1的新代碼生成模型,它被設(shè)計成輕量級...
「教科書級」數(shù)據(jù)能有多大作用?微軟超強小模型引熱議
phi-1 證明高質(zhì)量的「小數(shù)據(jù)」能夠讓模型具備良好的性能。論文地址:https://arxiv.org/abs/2309.05463模型簡介架構(gòu)研究團隊使用 phi-1 ...
一條命令完成本地版大模型下載及安裝使用
官網(wǎng)地址:https://ollama.com/github地址:https://github.com/ollama/ollama”目前 Ollama 支持的一些名氣比較大的模型(列表不齊全,...
在筆記本電腦上,實現(xiàn)本地知識庫和大模型檢索增強生成(RAG)
在筆記本電腦上,實現(xiàn)本地知識庫和大模型檢索增強生成(RAG)現(xiàn)在,我們可以引入AnythingLLM,管理本地知識庫,并和Ollama結(jié)合起來,實...
沒有RTX 4090怎么辦?用Ollama來玩LLM吧!
用Ollama來玩LLM吧!Ollama的安裝過程非常簡單。當你能夠通過運行ollama --version命令成功查詢到版本信息時,就意味著Ollama已經(jīng)順利安...
搭建本地大模型和知識庫,最簡單的方法
搭建本地大模型和知識庫,最簡單的方法視頻號:黃益賀YouTube / Medium: huangyihe以下為視頻內(nèi)容的文字版在本地跑開源大模型,目前最好的軟件肯定是Ollama。如果你不確定大模型的名稱,到官網(wǎng)的model...
247.2k star! 超強大的私有化ChatGPT,支持圖像識別/文生圖/語音輸入/文本朗讀,個人電腦可運行!
超強大的私有化ChatGPT,支持圖像識別/文生圖/語音輸入/文本朗讀,個人電腦可運行!8.各項目地址ollama:https://github.com/ollama/oll...
微信掃碼,在手機上查看選中內(nèi)容