李锋镝的博客

  • 首页
  • 时间轴
  • 评论区显眼包🔥
  • 左邻右舍
  • 博友圈
  • 关于我
    • 关于我
    • 另一个网站
    • 我的导航站
    • 网站地图
    • 赞助
  • 留言
  • 🚇开往
Destiny
自是人生长恨水长东
  1. 首页
  2. AI
  3. 正文

手把手教你在 KubeSphere 上构建自托管 AI 助手:基于 Open WebUI 实现企业级私有智能平台

2025年10月27日 160点热度 0人点赞 0条评论

在数字化转型加速的今天,企业对 AI 应用的需求不再局限于“能用”,更追求“可控”——尤其是涉及内部文档、客户数据等敏感信息时,将数据上传至第三方 AI 平台的风险难以承受。而 KubeSphere + Open WebUI 的组合,恰好为企业提供了“自主可控、可离线运行”的 AI 解决方案:借助 KubeSphere 成熟的云原生管理能力,搭配 Open WebUI 灵活的模型接入与交互能力,无需复杂开发即可搭建私有 AI 助手,既满足安全需求,又能适配多样化业务场景。

本文将从“技术原理”到“实操落地”,详细讲解如何在 KubeSphere 中部署 Open WebUI、配置本地模型(Ollama)、集成企业知识库,并解决部署过程中的常见问题,帮你快速打造企业级自托管 AI 平台。

一、先搞懂核心概念:为什么选择 KubeSphere + Open WebUI?

在动手部署前,我们需要先明确两个核心组件的定位与优势——理解它们的协同逻辑,才能更好地应对后续配置与扩展。

1. Open WebUI:不止是“私有 ChatGPT 界面”

Open WebUI 是一款开源的 AI 交互平台,核心价值在于“统一模型接入层 + 企业级功能扩展”。它不是简单的聊天界面,而是连接“模型能力”与“业务需求”的桥梁,主要特性可分为三类:

特性分类 核心功能 企业级价值
多模型兼容 支持 Ollama 本地模型(Llama 3、Qwen 2 等)、OpenAI API、Azure OpenAI 等 避免“绑定单一模型”,可根据业务场景切换模型(如轻量场景用 DeepSeek,复杂场景用 GPT-4)
知识增强能力 内置 RAG 引擎,支持上传 PDF/Word/TXT 文档,实现“文档问答” 将 AI 与企业知识库结合,解决“模型不懂业务”问题(如基于产品手册回答客户咨询)
安全与管理 多用户权限控制、SSO 单点登录(支持 OIDC)、操作日志审计 适配企业组织架构,确保不同部门/角色仅能访问授权资源,满足合规要求(如金融、医疗行业)

简单来说,Open WebUI 帮你解决了“怎么用 AI”的问题:无需重复开发交互界面,也不用关心不同模型的调用差异,一个平台即可统一管理所有 AI 能力。

2. KubeSphere:云原生环境的“AI 部署管家”

KubeSphere 是基于 Kubernetes 的企业级容器平台,它为 Open WebUI 提供了“稳定的运行底座 + 便捷的运维工具”。为什么不直接在 Kubernetes 上部署,而要选择 KubeSphere?核心优势体现在三点:

  • 低代码部署:通过“扩展中心”一键安装 Open WebUI 及依赖组件(如 Ollama、数据库),无需手动编写复杂的 YAML 配置(如 StatefulSet、Service、ConfigMap);
  • 全生命周期管理:支持 Open WebUI 实例的启停、扩容、版本升级,以及资源监控(CPU/内存/磁盘使用率),运维效率提升 80%;
  • 身份体系集成:KubeSphere 的 OIDC 服务可与 Open WebUI 无缝对接,实现“一次登录,多系统访问”,避免员工记忆多个账号密码。

举个例子:如果直接在 Kubernetes 部署 Open WebUI,需要手动创建 PV/PVC 存储数据、配置 Ingress 暴露服务、编写脚本实现模型自动拉取;而在 KubeSphere 中,这些操作都可通过图形化界面完成,即使是非运维人员也能快速上手。

二、部署前准备:环境检查与依赖说明

在正式部署前,需确保 KubeSphere 环境满足基础条件,避免因资源不足或版本不兼容导致部署失败。

1. 硬件资源要求

Open WebUI 本身对资源要求较低,但如果需要部署本地模型(如 Ollama 运行 Llama 3),需根据模型大小调整硬件配置:

部署场景 CPU 核心数 内存(RAM) 磁盘(SSD) 备注
仅 Open WebUI(无本地模型) 2 核及以上 4GB 及以上 20GB 及以上 仅用于接入远程 API(如 OpenAI),不运行本地模型
Open WebUI + 轻量模型 4 核及以上 16GB 及以上 50GB 及以上 如运行 DeepSeek-R1(1.5B 参数)、Qwen 2(0.5B 参数)
Open WebUI + 中大型模型 8 核及以上 32GB 及以上 100GB 及以上 如运行 Llama 3(8B 参数)、Qwen 2(7B 参数),建议配置 GPU(NVIDIA A10)

关键提醒:本地模型运行对内存要求极高,若内存不足会导致模型崩溃或响应超时。例如,8B 参数的模型在 FP16 精度下需约 16GB 内存,建议预留 50% 冗余(即 24GB 以上内存)。

2. 软件版本要求

  • KubeSphere 版本:支持 KubeSphere 社区版 v3.3.x、v4.0.x、v4.1.x(注意:Open WebUI 扩展 v0.6.18 不兼容 v4.1.x,需使用 v0.6.34 及以上版本);
  • Kubernetes 版本:KubeSphere 对应的 Kubernetes 版本(如 v3.3.x 对应 Kubernetes v1.20-v1.24,v4.1.x 对应 Kubernetes v1.25-v1.28);
  • 网络要求:若需拉取海外镜像(如 Ollama 官方镜像、Open WebUI 镜像),需确保 KubeSphere 集群能访问外网;若无法访问外网,需提前将镜像同步到私有镜像仓库。

3. 依赖组件说明

部署 Open WebUI 时,KubeSphere 会自动安装以下依赖组件,无需手动部署:

  • Ollama:本地模型运行引擎,负责拉取、启动和管理 LLM 模型;
  • PostgreSQL:Open WebUI 的后端数据库,存储用户信息、对话历史、知识库数据;
  • Nginx Ingress Controller:若选择“Ingress”方式暴露服务,需确保 KubeSphere 已安装该组件(默认已集成)。

三、 step-by-step 部署:在 KubeSphere 中安装 Open WebUI

接下来进入实操环节,我们将以 KubeSphere 社区版 v4.1.x + Open WebUI v0.6.34 为例,分 4 步完成部署,全程图形化操作,无需命令行。

1. 第一步:部署 KubeSphere AI Labs(扩展基础)

Open WebUI 属于 KubeSphere AI Labs 计划的扩展组件,需先部署 AI Labs 基础环境:

  1. 登录 KubeSphere 控制台,进入“平台管理”→“扩展中心”,在搜索框输入“AI Labs”;
  2. 点击“AI Labs”扩展卡片,进入详情页后点击“安装”,选择“默认命名空间”(建议使用 kubeai 命名空间,便于管理);
  3. 等待安装完成(约 5-10 分钟,取决于网络速度),可在“扩展中心”→“已安装”中查看状态,显示“运行中”即表示 AI Labs 部署成功。

常见问题:若安装失败,可能是镜像拉取超时。解决方案:

  • 进入“工作负载”→“部署”,找到 AI Labs 相关部署(如 ai-labs-controller);
  • 编辑部署的“镜像配置”,将海外镜像替换为国内镜像(如 Ollama 镜像可使用 registry.cn-hangzhou.aliyuncs.com/ai-studio-registry/ollama:latest);
  • 重新触发部署,等待镜像拉取完成。

2. 第二步:安装 Open WebUI 扩展

AI Labs 部署完成后,即可安装 Open WebUI:

  1. 在“扩展中心”→“AI Labs”分类下,搜索“Open WebUI”,点击进入详情页;
  2. 点击“安装”,选择安装版本(建议选择 v0.6.34,兼容 KubeSphere v4.1.x),并确认安装命名空间(与 AI Labs 一致,如 kubeai);
  3. 进入“高级配置”页面,可暂时保持默认配置(后续可修改),点击“确认”开始安装;
  4. 安装过程约 10-15 分钟,可在“已安装扩展”中查看进度,当所有 Pod 状态为“Running”时,表示安装成功。

验证安装:进入“工作负载”→“Pod”,在 kubeai 命名空间下,确认以下 Pod 正常运行:

  • open-webui-xxx:Open WebUI 前端与后端服务;
  • open-webui-postgres-xxx:PostgreSQL 数据库;
  • open-webui-ollama-xxx:Ollama 模型引擎(若未启用 Ollama,此 Pod 不会启动)。

3. 第三步:配置服务暴露方式(关键!实现外部访问)

Open WebUI 安装完成后,需配置“服务暴露方式”,才能从外部访问(如企业内网、个人电脑)。KubeSphere 支持 3 种暴露方式,可根据场景选择:

方式 1:NodePort(简单快捷,适合测试)

适合小规模测试或内部临时使用,通过“节点 IP + 端口”访问:

  1. 进入“网络与服务”→“服务”,在 kubeai 命名空间下找到 open-webui 服务;
  2. 点击服务名称,进入“编辑服务”页面,将“服务类型”修改为“NodePort”;
  3. 配置“节点端口”(如 32678,需确保该端口未被其他服务占用),点击“确定”;
  4. 访问地址:http://<KubeSphere 节点 IP>:32678(如 http://172.31.19.4:32678),若能看到 Open WebUI 登录页面,说明配置成功。

方式 2:Ingress(推荐,适合生产环境)

适合生产环境,通过域名访问(如 ai.example.com),支持 HTTPS 加密:

  1. 进入“网络与服务”→“Ingress”,点击“创建”;
  2. 填写基本信息:名称(如 open-webui-ingress)、命名空间(kubeai);
  3. 配置“规则”:
    • 主机:输入自定义域名(如 ai.example.com);
    • 路径:/,后端服务选择 open-webui,端口选择 80(Open WebUI 默认端口);
  4. (可选)配置 HTTPS:上传 SSL 证书(如 Let's Encrypt 证书),开启“HTTPS 重定向”;
  5. 点击“确定”,等待 Ingress 生效(约 1-2 分钟);
  6. 在本地 DNS 或企业 DNS 服务器中,将域名(ai.example.com)解析到 KubeSphere Ingress 节点的 IP;
  7. 访问 https://ai.example.com,验证是否能正常进入 Open WebUI。

方式 3:LoadBalancer(适合云环境)

若 KubeSphere 部署在公有云(如阿里云、AWS),可使用 LoadBalancer 服务,由云厂商提供公网 IP:

  1. 编辑 open-webui 服务,将“服务类型”改为“LoadBalancer”;
  2. 保存后,云厂商会自动分配公网 IP,可在服务详情页查看“外部 IP”;
  3. 访问 http://<外部 IP> 即可进入 Open WebUI。

4. 第四步:配置 Ollama 本地模型(实现离线运行)

默认情况下,Open WebUI 仅支持接入远程 API(如 OpenAI),若需运行本地模型,需配置 Ollama:

  1. 进入“配置中心”→“配置字典”,在 kubeai 命名空间下找到 open-webui-ollama-config;
  2. 编辑配置字典,修改 ollama.models.pull 和 ollama.models.run 字段,指定需要拉取和运行的模型:
    ollama:
     enabled: true  # 启用 Ollama 本地模型
     ollama:
       models:
         pull:  # 启动时自动拉取的模型
           - deepseek-r1:1.5b  # 轻量模型,适合测试
           - llama3:8b          # 中大型模型,需足够内存
         run:   # 拉取后自动启动的模型
           - deepseek-r1:1.5b

    常见模型参考:

    • 轻量模型(1-2B 参数):deepseek-r1:1.5b、qwen2:0.5b(适合 16GB 内存);
    • 中量模型(7-8B 参数):llama3:8b、qwen2:7b(适合 32GB 内存 + GPU);
    • 大量模型(13B+ 参数):llama3:70b、gemma:14b(需 64GB 内存 + 高性能 GPU);
  3. 保存配置后,重启 open-webui-ollama Pod(进入“工作负载”→“Pod”,找到该 Pod 并点击“重启”);
  4. 验证模型:进入 Open WebUI,在“模型选择”下拉框中,若能看到 deepseek-r1:1.5b,说明模型部署成功;发送测试消息(如“介绍 KubeSphere”),模型会返回本地生成的响应,无需访问外网。

四、进阶配置:让 Open WebUI 适配企业需求

部署完成后,还需进行“企业级配置”,才能真正投入使用——包括身份集成、知识库搭建、权限控制等。

1. 集成 KubeSphere 单点登录(SSO):统一身份管理

企业员工无需注册新账号,可直接用 KubeSphere 账号登录 Open WebUI,步骤如下:

  1. 进入 KubeSphere 控制台,“平台管理”→“访问控制”→“OIDC 服务”,记录“ issuer URL”(如 https://kubeSphere.example.com/oauth2);
  2. 进入 Open WebUI,点击“登录”→“使用 KubeSphere 登录”;
  3. 在 Open WebUI 后台配置 OIDC 参数(进入“管理员设置”→“认证”→“OIDC”):
    • OIDC issuer:输入步骤 1 记录的 URL;
    • 客户端 ID/密钥:在 KubeSphere“访问控制”→“应用注册”中创建应用,获取客户端 ID 和密钥;
    • 回调 URL:输入 Open WebUI 的访问地址(如 https://ai.example.com/auth/oidc/callback);
  4. 保存配置后,退出登录并重新点击“使用 KubeSphere 登录”,跳转至 KubeSphere 登录页面,验证通过后即可自动登录 Open WebUI。

价值:实现“一次登录,多系统访问”,减少员工账号管理成本,同时确保离职员工账号注销后,无法再访问 Open WebUI,提升安全性。

2. 搭建企业知识库(RAG):让 AI 懂业务

Open WebUI 内置 RAG 引擎,可上传企业内部文档(如产品手册、操作指南),让 AI 基于文档内容回答问题,解决“模型不懂业务”的痛点:

  1. 进入 Open WebUI,点击左侧“知识库”→“创建知识库”,输入知识库名称(如“产品手册知识库”);
  2. 点击“上传文档”,支持 PDF、Word、TXT 等格式(单文件最大 100MB,可批量上传);
  3. 等待文档解析(解析速度取决于文档大小,100 页 PDF 约需 1-2 分钟);
  4. 解析完成后,在“聊天”页面选择“关联知识库”→“产品手册知识库”,发送业务问题(如“产品 A 的定价策略是什么?”),AI 会基于上传的文档内容生成准确回答。

优化技巧:

  • 文档分类:按业务模块创建多个知识库(如“销售知识库”“技术支持知识库”),避免内容混杂;
  • 定期更新:在“知识库”页面点击“更新”,可重新上传最新文档,确保 AI 回答的时效性;
  • 片段筛选:若 AI 回答不准确,可在“知识库”→“文档片段”中查看解析后的内容,删除冗余或错误片段。

3. 配置多用户权限:精细化资源管控

企业中不同角色(如研发、销售、行政)对 AI 的需求和权限不同,可通过 Open WebUI 的“用户管理”功能实现精细化控制:

  1. 进入 Open WebUI 管理员后台(需登录管理员账号),点击“用户管理”→“创建用户”;
  2. 填写用户信息(用户名、邮箱),并分配角色:
    • 普通用户:仅能使用已配置的模型和知识库,无法修改系统设置;
    • 部门管理员:可管理本部门的知识库,但不能访问其他部门的内容;
    • 系统管理员:拥有全部权限,可配置模型、管理所有用户和知识库;
  3. (可选)配置“模型权限”:限制普通用户仅能使用轻量模型(如 DeepSeek-R1),避免中大型模型被滥用,节省资源;
  4. 保存后,用户会收到邮件通知,登录后即可按权限使用 Open WebUI。

场景示例:

  • 销售团队:仅能访问“销售知识库”,使用轻量模型回答客户咨询;
  • 研发团队:可访问“技术文档知识库”,使用中大型模型辅助代码开发;
  • 管理员:可查看所有用户的对话日志,审计敏感操作(如文档下载)。

五、常见问题与解决方案(避坑指南)

在部署和使用过程中,可能会遇到各种问题,以下是 5 个高频问题的解决方案:

1. 问题:Open WebUI 无法访问,提示“连接超时”

可能原因:

  • 服务暴露方式配置错误(如 NodePort 端口未开放、Ingress 规则配置错误);
  • 防火墙或安全组阻止了访问端口(如 32678、443)。

解决方案:

  1. 检查服务状态:进入 KubeSphere“网络与服务”→“服务”,确认 open-webui 服务的“端点”正常(显示 Pod IP);
  2. 测试端口连通性:在本地电脑执行 telnet <节点 IP> <端口>(如 telnet 172.31.19.4 32678),若无法连通,说明端口未开放;
  3. 开放端口:在 KubeSphere 节点的防火墙中开放对应端口(如 firewall-cmd --add-port=32678/tcp --permanent,然后 firewall-cmd --reload);
  4. 重新访问 Open WebUI,验证是否正常。

2. 问题:Ollama 模型拉取失败,提示“timeout”

可能原因:

  • 外网访问受限,无法拉取 Ollama 官方模型仓库(https://ollama.com);
  • 模型文件过大(如 Llama 3 8B 约 4GB),网络带宽不足导致超时。

解决方案:

  1. 使用国内模型源:编辑 open-webui-ollama-config 配置字典,添加 OLLAMA_BASE_URL 环境变量,指向国内镜像源(如 https://ollama.mirrors.sjtug.sjtu.edu.cn);
    ollama:
     env:
       - name: OLLAMA_BASE_URL
         value: "https://ollama.mirrors.sjtug.sjtu.edu.cn"
  2. 手动上传模型:
    • 在能访问外网的机器上,用 ollama pull <模型名> 拉取模型(如 ollama pull deepseek-r1:1.5b);
    • 导出模型:ollama save deepseek-r1:1.5b -f deepseek-r1.tar;
    • 将 deepseek-r1.tar 上传到 KubeSphere 节点,导入到 Ollama Pod:docker cp deepseek-r1.tar <ollama-pod-name>:/root/,然后进入 Pod 执行 ollama load deepseek-r1:1.5b -f /root/deepseek-r1.tar;
  3. 重启 Ollama Pod,验证模型是否正常显示。

3. 问题:AI 回答速度慢,甚至超时

可能原因:

  • 内存不足,模型使用 swap 分区(速度远慢于物理内存);
  • 未启用 GPU,模型仅用 CPU 运行(推理速度慢 10-100 倍)。

解决方案:

  1. 检查内存使用:进入 KubeSphere“监控中心”→“Pod 监控”,查看 open-webui-ollama Pod 的内存使用率,若超过 90%,需扩容节点内存或更换更小的模型;
  2. 启用 GPU 加速(关键!):
    • 确保 KubeSphere 集群已安装 NVIDIA 设备插件(参考 NVIDIA 官方文档);
    • 编辑 open-webui-ollama 部署,添加 GPU 资源请求:
      resources:
      requests:
       nvidia.com/gpu: 1  # 请求 1 块 GPU
      limits:
       nvidia.com/gpu: 1
    • 重启 Pod 后,执行 docker exec -it <ollama-pod-name> ollama list,若模型标注“GPU”,说明 GPU 已启用;
  3. 测试速度:重新发送消息,AI 响应时间会从“秒级”降至“毫秒级”(如 Llama 3 8B 模型,CPU 响应需 5-10 秒,GPU 仅需 0.5-1 秒)。

4. 问题:SSO 登录失败,提示“无效的回调 URL”

可能原因:Open WebUI 配置的 OIDC 回调 URL 与 KubeSphere 应用注册的回调 URL 不一致。

解决方案:

  1. 进入 KubeSphere“访问控制”→“应用注册”,找到为 Open WebUI 创建的应用,查看“回调 URL”(如 https://ai.example.com/auth/oidc/callback);
  2. 进入 Open WebUI 管理员后台,“认证”→“OIDC”,确保“回调 URL”与步骤 1 完全一致(包括 http/https、域名、路径);
  3. 保存配置后,重新尝试 SSO 登录。

5. 问题:知识库文档解析失败,提示“格式不支持”

可能原因:文档格式特殊(如加密 PDF、扫描件 PDF),Open WebUI 无法解析。

解决方案:

  1. 检查文档格式:确保文档未加密(加密 PDF 需先解密),扫描件 PDF 需先转换为“可编辑文本”(可用工具如 Adobe Acrobat、SmallPDF);
  2. 拆分大文档:若文档超过 100MB 或 1000 页,建议拆分为多个小文档后再上传;
  3. 转换格式:将 Word 文档另存为“PDF(无宏)”格式,避免宏代码影响解析;
  4. 重新上传文档,验证解析结果。

六、总结:自托管 AI 助手的价值与未来

通过 KubeSphere + Open WebUI 构建的自托管 AI 助手,不仅解决了“数据安全”和“离线运行”的核心需求,还具备以下长期价值:

  1. 成本可控:无需支付第三方 AI 平台的 API 费用,一次性部署后可无限使用(仅需承担硬件和运维成本);
  2. 灵活扩展:可根据业务需求接入新模型(如行业专用模型)、扩展知识库(如对接企业内部文档系统)、开发插件(如集成 CRM 系统自动生成客户邮件);
  3. 合规适配:所有数据存储在企业内部,满足 GDPR、等保 2.0 等合规要求,尤其适合金融、医疗、政务等对数据安全敏感的行业。

未来,随着“AI + 云原生”的融合加深,KubeSphere AI Labs 还将推出更多扩展组件(如 AI 模型训练、AI 任务调度),Open WebUI 也将支持更多功能(如多模态交互、自动化工作流)。对于企业而言,现在搭建自托管 AI 平台,不仅是解决当前需求,更是为未来智能化转型奠定基础。

如果你在部署过程中遇到其他问题,欢迎在评论区留言,或参考 KubeSphere 官方文档(Open WebUI 扩展指南)获取更多帮助!

除非注明,否则均为李锋镝的博客原创文章,转载必须以链接形式标明本文链接

本文链接:https://www.lifengdi.com/ren-gong-zhi-neng/4539

相关文章

  • DeepSeek本地部署全攻略:从环境搭建到高级应用,打造专属 AI 助手
  • AI能写代码,却造不出软件:软件工程的核心竞争力从未改变
  • 从入门到精通:Ollama 本地大模型全攻略(含 UI 界面、多语言调用、进阶优化)
  • AI“说谎”“编造事实”的原因详解
  • AI Agent 扩展双雄:MCP 与 Agent Skill 深度拆解——从设计哲学到实战落地
本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可
标签: AI ChatGPT KubeSphere Ollama Open WebUI
最后更新:2025年10月27日

李锋镝

既然选择了远方,便只顾风雨兼程。

打赏 点赞
< 上一篇
下一篇 >

文章评论

1 2 3 4 5 6 7 8 9 11 12 13 14 15 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 46 47 48 49 50 51 52 53 54 55 57 58 60 61 62 63 64 65 66 67 69 72 74 76 77 78 79 80 81 82 85 86 87 90 92 93 94 95 96 97 98 99
取消回复

秋天是倒放的春天,晚安是爱你的序篇。

那年今日(02月10日)

  • 1953年:穆罕默德·纳吉布出任埃及总统
  • 1923年:德国物理学家、X射线发现者伦琴逝世
  • 1898年:德国戏剧家贝尔托·布莱希特出生
  • 1894年:英国政治家哈罗德·麦克米伦出生
  • 589年:杨坚灭陈朝,南北朝结束
  • 更多历史事件
最新 热点 随机
最新 热点 随机
Apollo配置中心中的protalDB的作用是什么 org.apache.ibatis.plugin.Interceptor类详细介绍及使用 JDK25模块级导入深度解析:Java导入机制的革命性进化 AI时代,个人技术博客的出路在哪里? 什么是Meta Server? 千万级大表新增字段实战指南:告别锁表与业务中断
玩博客的人是不是越来越少了?AI时代,个人技术博客的出路在哪里?准备入手个亚太的ECS,友友们有什么建议吗?使用WireGuard在Ubuntu 24.04系统搭建VPNWordPress实现用户评论等级排行榜插件WordPress网站换了个字体,差点儿把样式换崩了
JWT、Cookie、Session、Token 区别与实战选型指南 Spring Boot 2.5.0重新设计的spring.sql.init 配置有啥用? 微服务的数据库设计 MySQL数据库详解——执行SQL更新时,其底层经历了哪些操作? AI重构开发者工作范式:从Anthropic内部调研看Claude对研发领域的深层影响 使用Spring MVC的websocket配置时 Tomcat启动报错
标签聚合
Spring K8s docker JAVA JVM 分布式 数据库 SpringBoot AI IDEA Redis 日常 AI编程 MySQL 多线程 SQL 设计模式 WordPress ElasticSearch 架构
友情链接
  • Blogs·CN
  • Honesty
  • Mr.Sun的博客
  • 临窗旋墨
  • 哥斯拉
  • 彬红茶日记
  • 志文工作室
  • 懋和道人
  • 搬砖日记
  • 旧时繁华
  • 林羽凡
  • 瓦匠个人小站
  • 皮皮社
  • 知向前端
  • 蜗牛工作室
  • 韩小韩博客
  • 风渡言

COPYRIGHT © 2026 lifengdi.com. ALL RIGHTS RESERVED.

域名年龄

Theme Kratos Made By Dylan

津ICP备2024022503号-3

京公网安备11011502039375号