百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

手把手教你Dify私有化部署,打造专属AI平台

toqiye 2025-03-14 20:55 12 浏览 0 评论


一、Dify 是什么?

Dify 是一款极具创新性的开源 LLM 应用开发平台,它就像是一把万能钥匙,为开发者们打开了通往生成式 AI 应用开发新世界的大门。其融合了后端即服务(Backend as Service)和 LLMOps 的先进理念 ,极大地简化和加速了生成式 AI 应用的创建与部署流程。

核心功能介绍

  • Dify 具备多方面优势及广泛应用场景:
  • 优势
    • 模型支持:与数十家推理提供商和自托管解决方案的数百个专有 / 开源 LLM 集成,涵盖热门模型,开发者可按需选择。
    • Prompt IDE:方便开发者编写、测试、优化提示词,对比不同模型性能,添加增强功能。
    • RAG Pipeline:提供完整端到端 RAG 管道,可直接处理常见文档格式,简化数据准备。
    • 智能 Agent 支持:允许开发者基于 LLM 函数调用或 ReAct 范式定义 Agent 并添加工具,平台内置 50 多种工具。
    • LLMOps:为已部署的 AI 应用提供完善运维支持,形成闭环优化机制。
    • 后端服务:所有功能配备 API,便于集成到业务系统。
  • 应用场景
    • 智能客服:在多行业构建 24/7 在线客服,快速准确回答问题,提高用户满意度,降低人力成本。
    • 内容生成:助力新闻媒体等领域自动生成高质量内容,提高创作效率。
    • 数据分析:从非结构化数据提取关键信息生成摘要或报告,为企业决策提供支持。
    • 翻译与语言处理:提供多语言翻译等服务,在跨国企业等场景发挥重要作用。
    • 教育与学习:创建个性化学习助手,帮助学生提高学习效率。


二、私有化部署前的准备

在开始 Dify 的私有化部署之旅前,我们得先把 “粮草” 备齐,也就是完成一系列的准备工作,这就像是搭建一座高楼,坚实的基础是成功的关键。接下来,我们就详细聊聊都需要准备些什么。

(一)硬件要求

硬件配置就如同 AI 应用的 “身体”,强壮的身体才能支撑起强大的功能。Dify 的私有化部署对硬件有一定要求:

  • CPU:建议使用至少 8 核的 CPU ,比如英特尔至强系列或者 AMD 霄龙系列的处理器。如果是处理大规模数据和高并发请求,那么 16 核甚至更高核数的 CPU 会更能满足需求,确保系统在复杂运算和多任务处理时保持流畅。
  • 内存:16GB 的内存是起步配置,但为了应对可能出现的大量数据处理和模型加载,32GB 或更高的内存会让系统运行得更加稳定和高效。以加载大型语言模型为例,较大的内存可以避免模型加载时因内存不足而导致的卡顿甚至崩溃,确保模型能够快速响应请求。
  • 存储:至少需要 200GB 的可用硬盘空间,并且最好选择高速的固态硬盘(SSD)。因为 SSD 具有更快的读写速度,能够大大缩短数据读取和写入的时间,特别是在处理大量文档和频繁访问数据时,能显著提升系统的整体性能。如果数据量较大,建议配备更大容量的存储设备,以满足长期的数据存储需求。

硬件配置的高低直接影响着 Dify 的部署和使用效果。较高的配置能够支持更复杂的 AI 任务,如大规模的文本生成、复杂的数据分析等,同时也能提高系统的并发处理能力,确保在多个用户同时使用时,每个用户都能获得快速响应。而较低的配置可能会导致系统运行缓慢,甚至在处理一些复杂任务时出现卡顿、死机等情况,影响用户体验和业务的正常开展。

(二)软件要求

除了硬件,软件也是不可或缺的一部分,它们就像是 AI 应用的 “灵魂”,赋予了系统各种功能。Dify 私有化部署需要以下软件:

  • Docker:它是一个开源的应用容器引擎,就像是一个 “魔法盒子”,可以将应用及其依赖项打包在一起,实现应用的快速部署和运行。Docker 的安装方法因操作系统而异。
    • 在 Linux 系统上:可以通过官方软件源进行安装。以 Ubuntu 系统为例,首先更新软件包索引:sudo apt update,然后安装 Docker 的依赖包:sudo apt install apt-transport-https ca-certificates curl software-properties-common,接着添加 Docker 官方 GPG 密钥:curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg,再添加 Docker 软件源:echo "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null,最后安装 Docker:sudo apt install docker-ce docker-ce-cli containerd.io。
    • 在 Windows 系统上:可以从 Docker 官网(https://www.docker.com/products/docker-desktop)下载 Docker Desktop 安装程序,然后按照安装向导的提示进行安装即可。安装过程中,需要注意确保系统已经开启虚拟化功能,否则 Docker 可能无法正常运行。
    • 在 Mac 系统上:同样可以从 Docker 官网下载适用于 Mac 的 Docker Desktop 安装包,下载完成后,双击安装包进行安装。安装完成后,在系统偏好设置中可以对 Docker 进行一些基本配置,如设置内存和 CPU 使用限制等。
  • Docker Compose:它是 Docker 的一个重要工具,用于定义和运行多个 Docker 容器的应用程序。简单来说,它就像是一个 “指挥家”,可以协调多个 Docker 容器之间的关系,让它们协同工作。安装 Docker Compose 的步骤如下:
    • 首先,确认最新的 compose 版本,可以从官方开源位置 compose release page on GitHub(https://github.com/docker/compose/releases)上找到最新的稳定版的版本号。
    • 然后,下载 compose。例如,在 Linux 系统上,可以使用以下命令下载(注意根据实际版本号进行替换):sudo curl -L https://github.com/docker/compose/releases/download/v2.17.2/docker-compose-linux-x86_64 -o /usr/local/bin/docker-compose。
    • 下载完成后,赋予执行权限:sudo chmod +x /usr/local/bin/docker-compose。
    • 最后,建立软连接(可选步骤):sudo ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose,这样就可以在任何目录下直接使用docker-compose命令了。

在安装这些软件时,需要注意以下几点:

  • 确保操作系统的版本符合软件的要求,例如 Docker 在不同操作系统上对内核版本等有一定要求,不满足要求可能导致安装失败或运行不稳定。
  • 在下载软件时,尽量从官方渠道获取,以保证软件的安全性和完整性,避免下载到恶意篡改的版本。
  • 安装过程中,仔细阅读安装向导的提示信息,按照要求进行操作,特别是在配置一些关键参数时,如 Docker 的存储路径、网络设置等,要根据实际情况进行合理配置。

三、私有化部署详细步骤

准备工作就绪后,就可以正式开启 Dify 的私有化部署之旅啦!接下来,我将一步一步地详细介绍部署的具体步骤,每一步都至关重要,就像搭建一座高楼,每一块砖都不可或缺。

(一)克隆 Dify 代码


首先,我们要从 Dify 的官方代码仓库(如 GitHub)克隆代码到本地,这就像是把一座宝藏的蓝图复制到自己的 “地盘” 上。打开你的终端,执行以下命令:

git clone https://github.com/langgenius/dify.git

在克隆代码的过程中,可能会遇到一些问题。比如,如果你的网络状况不佳,可能会导致克隆速度缓慢甚至失败。这时候,你可以尝试更换网络环境,或者使用代理服务器来加速下载。另外,如果你的本地权限不足,可能无法将代码克隆到指定目录,这就需要你检查一下权限设置,确保你有足够的权限进行操作。

(二)配置环境变量

克隆完成后,进入 Dify 项目目录,找到环境变量配置文件(通常是.env)。这个文件就像是 Dify 的 “秘密档案”,里面记录了各种重要的配置信息,我们需要根据自己的实际情况对其进行修改。一般来说,我们可以先复制一份示例文件,然后在复制后的文件上进行修改,这样可以保留原始示例文件,方便后续参考。执行以下命令:

cd dify

cp.env.example.env

然后,使用你喜欢的文本编辑器打开.env文件,比如vim或者nano。在这个文件中,有很多关键的环境变量需要我们关注:

  • SECRET_KEY:这是一个用于加密和签名的密钥,就像是 Dify 的 “保险箱密码”,非常重要。如果不设置或者设置不当,可能会导致安全风险。建议使用一个足够复杂且唯一的密钥,可以通过一些工具生成,比如openssl rand -base64 42。
  • DB_USERNAME、DB_PASSWORD、DB_HOST、DB_PORT、DB_DATABASE:这些变量用于配置数据库连接信息,就像是告诉 Dify 如何找到并进入它的 “数据仓库”。根据你所使用的数据库类型(如 PostgreSQL),填写正确的用户名、密码、主机地址、端口号和数据库名称。
  • OPENAI_API_KEY:如果你打算使用 OpenAI 的模型,就需要在这里填写你的 OpenAI API 密钥。这是你访问 OpenAI 模型的 “通行证”,一定要妥善保管,不要泄露给他人。
  • STORAGE_TYPE和相关存储配置:STORAGE_TYPE用于指定存储类型,比如local表示本地存储,s3表示使用 AWS S3 存储等。如果选择了local,还需要配置STORAGE_LOCAL_PATH指定本地存储路径;如果选择了s3,则需要配置S3_ENDPOINT、S3_BUCKET_NAME、S3_ACCESS_KEY、S3_SECRET_KEY等信息,告诉 Dify 如何连接和使用存储服务。

修改这些环境变量时,一定要仔细核对,确保信息的准确性。一个小小的错误,比如拼写错误或者端口号填写错误,都可能导致 Dify 无法正常启动或者出现各种奇怪的问题。

(三)启动服务


配置好环境变量后,就可以使用 Docker Compose 来启动 Dify 服务了。在项目目录下,执行以下命令:

docker compose up -d

这个命令会根据docker-compose.yml文件中的配置,启动 Dify 的各个组件,包括 Web 服务器、数据库、任务队列等。-d参数表示以后台模式运行,这样你就可以继续在终端进行其他操作,而不会被启动过程占用终端。

在启动过程中,可能会遇到一些报错情况。比如,如果你的某个容器依赖的服务没有正常启动,可能会导致容器启动失败。这时候,你可以使用docker compose ps命令查看各个容器的状态,看看哪些容器没有正常运行。然后,使用docker compose logs命令查看容器的日志,从日志中找到具体的错误信息,根据错误提示进行排查和解决。常见的问题可能包括端口冲突、环境变量配置错误、依赖的镜像下载失败等。例如,如果提示某个端口被占用,你可以修改docker-compose.yml文件中的端口映射配置,选择一个未被占用的端口;如果是环境变量配置错误,就需要重新检查和修改.env文件中的配置。

四、部署后的关键操作

(一)初始化设置

当你成功部署 Dify 后,首次访问 Dify 的 Web 界面(通常是通过浏览器访问http://你的服务器IP:端口号,默认端口号可能是 8090,具体取决于你的配置),会看到一个简洁的初始化页面 。这个页面就像是 Dify 的 “欢迎大门”,你需要在这里设置管理员账号和密码,这是你进入 Dify 世界的 “钥匙”。

在对应的输入框中,输入你想要设置的管理员邮箱、用户名和密码。邮箱最好使用常用且稳定的,因为后续可能会用于接收 Dify 的重要通知和找回密码等操作。用户名要简洁易记,同时符合 Dify 的命名规范(一般不能包含特殊字符,长度有限制)。密码则要足够复杂,包含大小写字母、数字和特殊字符,以增强账号的安全性。例如,你可以设置用户名 “AI_admin”,密码 “Abc@123456”,这样既容易记住,又有一定的安全性。

设置完成后,点击 “设置” 按钮,系统会进行一系列的验证和初始化操作。如果设置成功,你将直接进入 Dify 的主界面,开启你的 AI 应用开发之旅;如果设置失败,页面会提示你具体的错误原因,比如密码强度不够、邮箱格式不正确等,你需要根据提示进行修改,直到设置成功为止。



(二)接入大模型

在 Dify 中接入各种大模型是发挥其强大功能的关键一步,就像是为一台超级计算机安装各种强大的 “大脑”。Dify 支持多种接入方式,下面以常见的 OpenAI 模型和本地部署的 Ollama 模型为例,为大家详细介绍接入方法和参数配置。

接入 OpenAI 模型

  1. 获取 API Key:首先,你需要前往 OpenAI 官网(https://platform.openai.com/account/api-keys),登录你的账号,然后在 “API Keys” 页面生成一个新的 API Key 。这个 Key 就像是你访问 OpenAI 模型的 “通行证”,一定要妥善保管,不要泄露给他人。
  2. 在 Dify 中配置:进入 Dify 的主界面,点击右上角的用户头像,在弹出的菜单中选择 “设置”。在设置页面中,找到 “模型供应商” 选项卡,点击 “OpenAI”。在弹出的配置窗口中,填写以下信息:
    • 模型名称:可以自定义一个你容易识别的名称,比如 “GPT-3.5-Turbo”,方便你在后续使用中区分不同的模型。
    • 基础 URL:保持默认的 OpenAI API 地址即可,一般是 “https://api.openai.com/v1”。
    • API Key:将你刚才在 OpenAI 官网获取的 API Key 粘贴到这里。
    • 其他参数:根据你的需求,可以设置模型的最大 token 上限、温度(Temperature)等参数。温度参数控制生成文本的随机性,取值范围一般是 0 - 1,数值越大,生成的文本越随机、富有创意;数值越小,生成的文本越确定、保守。例如,如果你想要生成比较稳定、准确的回答,可以将温度设置为 0.2;如果你想要生成更具创意和多样性的文本,如创作故事、诗歌等,可以将温度设置为 0.8。

接入 Ollama 模型(本地模型)

  1. 安装和配置 Ollama:如果你的服务器上还没有安装 Ollama,需要先进行安装。以 Linux 系统为例,可以通过以下命令安装:curl -fsSL https://ollama.com/install.sh | sh 。安装完成后,你可能需要根据实际情况配置 Ollama 的监听地址和端口,确保 Dify 能够访问到 Ollama 服务。
  1. 在 Dify 中配置:同样在 Dify 的 “模型供应商” 设置中,选择 “Ollama”。在配置窗口中填写:
    • 模型名称:填写你在 Ollama 中下载的模型名称,比如 “qwen2:7b”,要确保名称准确无误。
    • 基础 URL:填写 Ollama 服务的地址和端口,例如 “http:// 你的服务器 IP:11434”(如果 Ollama 运行在本地服务器,也可以填写 “http://localhost:11434”,但如果 Dify 是通过 Docker 部署,可能需要填写服务器的实际 IP 地址,以确保容器能够正确访问)。
    • 模型类型:根据模型的功能选择,如 “对话”“文本生成” 等。
    • 模型上下文长度:设置模型能够处理的最大上下文长度,一般根据模型的特性和你的需求进行设置,例如 4096。
    • 最大 token 上限:设置模型返回内容的最大 token 数量,通常可以与模型上下文长度保持一致,以充分利用模型的能力。
    • 是否支持 Vision:如果模型支持图片理解等多模态功能,勾选此项,比如 “llava” 模型。

(三)创建应用与知识库

完成大模型接入后,接下来就可以在 Dify 中创建 AI 应用和添加知识库了,这就像是为你的 AI “工厂” 生产产品和准备原材料。

创建 AI 应用

  1. 选择应用类型:在 Dify 的主界面,点击 “工作室” 选项卡,然后点击 “创建空白应用”。在弹出的窗口中,你可以看到 Dify 提供了多种应用类型,如 “聊天助手”“内容生成器”“智能客服” 等 。根据你的需求选择合适的应用类型,比如你想要创建一个与用户进行对话交流的 AI,就选择 “聊天助手”。
  1. 填写应用信息:为你的应用起一个有意义的名称,比如 “我的智能聊天伙伴”,并添加一段简短的描述,介绍应用的功能和特点,例如 “这是一个可以回答各种问题,陪你聊天解闷的智能助手”。
  1. 配置应用:点击 “创建” 按钮后,进入应用配置页面。在这里,你可以对应用进行进一步的设置,如选择之前接入的大模型,设置提示词(Prompt)等。提示词就像是给 AI 的 “指令”,告诉它在不同场景下如何回答问题。比如,你可以设置提示词为 “你是一个知识渊博的助手,对于用户的问题,要给出简洁明了且准确的回答”。

添加知识库

  1. 进入知识库页面:在 Dify 的主界面,点击 “知识库” 选项卡,然后点击 “创建知识库”。
  1. 选择数据源:Dify 支持多种数据源,包括 “导入已有文件”“同步自 Notion 内容”“同步自 Web 内容” 等 。如果你有本地的文档资料,如 PDF、TXT、PPT 等,可以选择 “导入已有文件”;如果你想从 Notion 笔记中获取知识,选择 “同步自 Notion 内容”;如果想从网页上抓取信息,选择 “同步自 Web 内容”。以导入本地文件为例,点击 “导入已有文件” 后,选择你要上传的文件,Dify 会自动识别文件格式并进行处理。
  1. 设置检索和索引:上传文件后,你可以对知识库进行检索和索引设置。例如,选择合适的索引技术(如 “高质量”“快速” 等,不同的索引技术会影响检索的速度和准确性),设置检索的相关参数,如 “top_k”(表示返回最相关的几个结果)。

假设你是一家电商公司,你可以创建一个 “电商智能客服” 应用,并添加一个包含商品信息、常见问题解答等内容的知识库。当用户咨询商品的信息、价格、优惠活动等问题时,智能客服可以快速从知识库中检索相关信息,并结合大模型的理解和生成能力,给出准确、详细的回答,大大提高了客户服务的效率和质量。

五、常见问题及解决办法

在 Dify 私有化部署和使用过程中,难免会遇到各种问题,就像在探索一座神秘岛屿时,可能会遇到各种阻碍。下面我将为大家整理一些常见问题及对应的解决办法,希望能帮助大家顺利 “通关”。

(一)部署过程中

  • 网络问题导致代码克隆失败:在克隆 Dify 代码时,如果遇到网络不稳定或速度过慢的情况,可能会导致克隆失败。可以尝试使用代理服务器来加速下载,比如在 Linux 系统中,可以设置 http_proxy 和 https_proxy 环境变量。例如:
export http_proxy=http://你的代理服务器地址:端口号

export https_proxy=https://你的代理服务器地址:端口号

如果不知道如何获取代理服务器地址和端口号,可以咨询你的网络管理员。另外,也可以更换网络环境,比如从移动网络切换到 Wi-Fi 网络,或者尝试在不同的时间段进行克隆,因为网络状况在不同时间可能会有所不同。

  • 容器启动失败:这是一个比较常见且可能由多种原因导致的问题。如果是某个容器依赖的服务没有正常启动,从而导致容器启动失败,可以使用docker compose ps命令查看各个容器的状态,找出未正常运行的容器。然后使用docker compose logs命令查看容器的日志,从日志中获取具体的错误信息。例如,如果提示某个端口被占用,导致容器无法启动,你可以修改docker-compose.yml文件中的端口映射配置。假设原来的配置是:
ports:

- "8090:8090"

你可以将其修改为:

ports:

- "8091:8090"

这样就将容器的 8090 端口映射到了主机的 8091 端口,避免了端口冲突。如果是环境变量配置错误导致的容器启动失败,就需要仔细检查.env文件中的配置,确保每个环境变量都填写正确,没有拼写错误或者遗漏。

(二)使用过程中

  • 模型接入失败:在接入 OpenAI 模型时,如果出现接入失败的情况,首先要检查 API Key 是否正确。可以尝试将 API Key 在 OpenAI 的官方测试工具中进行验证,确保其有效性。如果 API Key 没有问题,再检查网络是否能够正常访问 OpenAI 的 API 地址。有些网络环境可能会限制对外部 API 的访问,这时可以联系网络管理员,看是否需要配置代理或者调整网络策略。在接入本地模型(如 Ollama 模型)时,如果无法连接,要检查 Ollama 服务是否正常运行,以及在 Dify 中配置的 Ollama 服务地址和端口是否正确。可以在服务器上使用curl命令来测试是否能够访问 Ollama 服务,例如:curl http://localhost:11434(如果 Ollama 运行在本地且端口为 11434),如果能够正常返回信息,说明 Ollama 服务运行正常,问题可能出在 Dify 的配置上;如果无法访问,就需要检查 Ollama 的安装和配置是否正确。
  • 应用创建或知识库添加失败:在创建 AI 应用时,如果提示创建失败,可能是填写的应用信息不符合要求。比如应用名称可能包含了不允许的特殊字符,或者描述信息过长。仔细查看错误提示,按照要求修改应用信息。在添加知识库时,如果上传文件失败,可能是文件格式不支持或者文件大小超过了限制。Dify 支持常见的文件格式如 PDF、TXT、PPT 等,如果文件格式正确,检查文件大小是否超过了 Dify 设置的最大上传限制,如有需要,可以对文件进行压缩或者分割后再上传。

相关推荐

【SQL】SQL 语法差异大全(PgSQL/MySQL/Oracle/TiDB/OceanBase)

以下是针对不同数据库系统的SQL语法差异总结,按功能分类展示:一、基础查询1.分页查询--PostgreSQL/TiDB/OceanBaseSELECT*FROMTableNameL...

msf系列片之vps搭建,黑客的世界你真的了解嘛?

最后喜欢我文章的朋友请加圈子关注我们,私信关键词:学习。(送免费资料和优惠券)就会自动分享给你微信号。欢迎大家加入我们的安全大家庭。提高大家的安全意识,提升大家的网络安全技能一直是我们的初衷和愿景,让...

小技巧:ubuntu 24.04.1中自带Python升级到3.12.9和3.13.2最新版

喜欢的条友记得关注、点赞、转发、收藏,你们的支持就是我最大的动力源泉。这几天一直有朋友问我,如何将ubuntu24.04.1中自带Python升级到最新版,今天就来详细讲讲。方法1:使用DeadSn...

linux下开发一个应用,首先要做什么?

作为一个linux的忠实用户,日常工作基本上不用windows系统。为什么这么说呢?word加上QQ不用不行呀。有人说LibreOffice加上Pidgen可以替代,但实际上部分word会排版不正确,...

ubuntn部署flask(flask如何部署)

1.装一下pyenvgitclonehttps://github.com/pyenv/pyenv-virtualenv.git$(pyenvroot)/plugins/pyenv-virtu...

招聘平台HireVue完成E轮融资 并推面试平台

Yesky天极新闻2015-06-0316:31:55【Yesky新闻频道消息】日前,在线视频面试的招聘服务初创企业HireVue获得4500万美元E轮融资。由TechnologyCrossove...

面试官:说一下vue2和vue3的响应式原理

Vue2的响应式原理:初始化阶段:在创建Vue实例时,遍历data对象的属性,使用Object.defineProperty方法为每个属性定义getter和setter。Getter拦截:在gett...

vue3还用this吗?getCurrentInstance获取当前组件实例

在Vue2中,this关键字代表当前组件实例。在组件的选项对象中,this可以用于访问组件实例的属性、方法以及Vue实例的一些特定方法。在Vue3中,我们发现this是undefined...

Vue.js 中的异步组件是什么?(vue.js异步请求)

本号用于每日更新前端最新面试题,React、Vue、小程序、JavaScript、HTML5、CSS、uniapp、ES6、前端工程化、性能优化等热点面试题~~~欢迎关注,面试题刷起来~~升职加薪不是...

面试官:聊聊你知道的Vue与React的区别

最近面到很多大公司的时候,小编都会碰到一个很尴尬的问题,很多大公司的技术栈都是React,但是小编学的是Vue,其实从本质上来说两者都是比较优秀的前端框架,所以有些面试官会问到Vue和React的区别...

Vue核心响应式原理深度解析!手写TodoList实战

导读:搞懂这个知识点,秒杀80%前端面试题!原理+实战+调试技巧三合一核心1:数据响应式黑科技(图解)原理示意图数据变化→依赖收集→自动更新视图Vue2vsVue3实现对...

前端面试题-原生 js 如何进行监听路由的变化?vue框架是否用到?

在原生JavaScript中监听路由变化的方式主要分为两种场景:监听哈希(Hash)路由变化和监听HistoryAPI的路由变化。Vue框架本身并不直接处理路由监听,但Vue的官方路由...

vue引入element-ui后界面空白(vue怎么引入element)

正文部分配置vue:3.0vue-cli:4.5.11目的使用element-ui绘制ui界面原本操作(1)安装element-uinpmielement-ui-S(2)导入element-ui...

前端面试-关于vue3的响应式原理(vue响应式的原理一句话概括)

现在工作不好找的环境中,想要更好获得工作机会,让我们一起准备面试题吧~Vue3的响应式系统采用ES6的Proxy实现数据劫持,与Vue2的Object.defineProperty有...

2024前端大厂面试题 Vue.js中的keep-alive组件有什么作用

小伙伴们在面试前端开发工程师的时候是不是会遇到面试官问Vue.js中的keep-alive组件有什么作用?今天我们就来告诉大家,解锁2024大厂vue面试题Vue.js中的keep-alive组件有什...

取消回复欢迎 发表评论: