LLMs之RAG:基于Ollama后端框架(配置phi3/LLaMA-结合Dify前端框架(设置知识库文件+);向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用。
目录。
基于Ollama后端框架(配置phi3/LLaMA-结合Dify前端框架(设置知识库文件+);向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用。
1、配置依赖。
1.1、安装Docker和Docker Compose,
1.2、Olllama安装配置。
1.3、打开Dify界面并配置模型。
2、基于RAG的对话应用创建模型。
2.1、配置模型。
2.2、创建知识库并定量存储。
2.3、创建和发布应用程序。
2.4、对话测试基于知识库。
安装。 | 安装Docker和Docker Compose。 参考A3、Windows11系统安装→交互式安装,Docker和Docker一次性安装 Compose。 地址。:Docker:简介、安装、使用Docker的详细策略_docker 知乎-CSDN博客。 |
Olllama安装配置。 | Olllama参考的安装和配置。 地址。:LLM之Ollama:ollama的介绍、安装和使用方法、详细的案例应用策略_ollama中文说明-CSDN博客。 。地址02。:https://yunyaniu.blog.csdn.net/article/details/138235781。 |
Dify安装并启动。 | 参考——1、安装和启动Dify。 地址。:LLMs之Dify:CSDN博客是Dify的介绍、安装和使用方法以及案例应用的详细策略。 |
打开界面。 | 访问httpp在浏览器中://localhost/install并开始初始过程,设置帐户然后用这个账号登录。 地址。:http://localhost/install。 |
配置模型。 | 模型名称:phi3:latest。 #xff1集装箱地址a;http://host.docker.internal:11434。 |
点击知识库→创建知识库→添加PDF数据→保存和处理。
创建应用→设置角色→添加知识库数据→并设置提示词→选择大语言模型→依次点击更新→发布→Start Chat可以!