LLMs之RAG:基于Ollama后端框架的四个步骤(配置phi3/LLaMA
时间:2025-06-24 12:20:54 来源:新华社
【字体:  

LLMs之RAG:基于Ollama后端框架(配置phi3/LLaMA-结合Dify前端框架(设置知识库文件+);向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用。

目录。

基于Ollama后端框架(配置phi3/LLaMA-结合Dify前端框架(设置知识库文件+);向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用。

1、配置依赖。

1.1、安装Docker和Docker Compose,

1.2、Olllama安装配置。

1.3、打开Dify界面并配置模型。

2、基于RAG的对话应用创建模型。

2.1、配置模型。

2.2、创建知识库并定量存储。

2.3、创建和发布应用程序。

2.4、对话测试基于知识库。


基于Ollama后端框架(配置phi3/LLaMA-结合Dify前端框架(设置知识库文件+);向量化存储+应用发布)创建包括实现本地知识库问答/翻译助手等多个应用。

1、配置依赖。

1.1、安装Docker和Docker Compose,

安装。

安装Docker和Docker Compose。

参考A3、Windows11系统安装→交互式安装,Docker和Docker一次性安装 Compose。

地址。:Docker:简介、安装、使用Docker的详细策略_docker 知乎-CSDN博客。

1.2、Olllama安装配置。

Olllama安装配置。

Olllama参考的安装和配置。

地址。:LLM之Ollama:ollama的介绍、安装和使用方法、详细的案例应用策略_ollama中文说明-CSDN博客。

地址02。:https://yunyaniu.blog.csdn.net/article/details/138235781。

1.3、打开Dify界面并配置模型。

Dify安装并启动。

参考——1、安装和启动Dify。

地址。:LLMs之Dify:CSDN博客是Dify的介绍、安装和使用方法以及案例应用的详细策略。

打开界面。

访问httpp在浏览器中://localhost/install并开始初始过程,设置帐户󿀌然后用这个账号登录。

地址。:http://localhost/install。

2、基于RAG的对话应用创建模型。

2.1、配置模型。

配置模型。

模型名称:phi3:latest。

#xff1集装箱地址a;http://host.docker.internal:11434。

2.2、创建知识库并定量存储。

点击知识库→创建知识库→添加PDF数据→保存和处理。

2.3、创建和发布应用程序。

创建应用→设置角色→添加知识库数据→并设置提示词→选择大语言模型→依次点击更新→发布→Start Chat可以!

2.4、对话测试基于知识库。

[责任编辑:百度一下]
检察日报数字报 | 正义网 |
Copyrights©最高人民检察院 All Rights Reserved.