|
LLMs之RAG:基于Ollama后端框架(配置phi3/LLaMA-3模型)結(jié)合Dify前端框架(設(shè)置知識庫文件+向量化存儲+應(yīng)用發(fā)布)創(chuàng)建包括實現(xiàn)本地知識庫問答/翻譯助手等多個應(yīng)用 基于Ollama后端框架(配置phi3/LLaMA-3模型)結(jié)合Dify前端框架(設(shè)置知識庫文件+向量化存儲+應(yīng)用發(fā)布)創(chuàng)建包括實現(xiàn)本地知識庫問答/翻譯助手等多個應(yīng)用1、配置依賴1.1、安裝Docker和Docker Compose,
1.2、安裝并配置Ollama
1.3、打開Dify界面并配置模型
2、創(chuàng)建模型基于RAG的對話應(yīng)用2.1、配置模型
2.2、創(chuàng)建知識庫并向量化存儲點擊知識庫→創(chuàng)建知識庫→添加PDF資料→保存并處理
2.3、創(chuàng)建應(yīng)用并發(fā)布創(chuàng)建應(yīng)用→設(shè)置角色→添加知識庫資料→并設(shè)置提示詞→選擇大語言模型→依次點擊更新→發(fā)布→Start Chat即可!
2.4、基于知識庫進行對話測試
|
|
|