
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文详细介绍了如何使用kubeadm工具快速搭建单Master节点的Kubernetes集群。主要内容包括:环境准备(3节点规划、CentOS 7系统要求)、Harbor私有镜像仓库的配置(导入k8s v1.23.10核心镜像和flannel网络组件镜像)、集群基础环境配置(主机名设置、防火墙/SELinux/swap关闭等)。通过图文并茂的方式指导读者完成从镜像准备到基础环境搭建的全过程,为后续
本文介绍了使用Docker和docker-compose快速搭建本地openGauss数据库开发环境的方法。主要内容包括:前置条件检查(需安装Docker 20.10+和docker-compose 2.0+)、镜像下载与导入、编写docker-compose配置文件(包含端口映射、数据持久化等设置)、服务启动与验证步骤。还提供了外部连接方式和常见问题排查建议,帮助开发者快速部署这个高性能开源关系
本文详细介绍了在昇腾310P芯片上部署DeepSeek-R1-Distill-Qwen-32B大模型的完整流程。首先配置了Kylin Linux服务器环境,安装NPU驱动和固件;然后下载模型权重并采用Docker方式安装MindIE推理引擎;通过修改配置文件启动服务,最后用curl命令测试推理效果。该方案实现了"高性能硬件+高效推理引擎+轻量化模型"的最佳组合,特别适合边缘计算
本文详细介绍了在昇腾310P芯片上部署DeepSeek-R1-Distill-Qwen-32B大模型的完整流程。首先配置了Kylin Linux服务器环境,安装NPU驱动和固件;然后下载模型权重并采用Docker方式安装MindIE推理引擎;通过修改配置文件启动服务,最后用curl命令测试推理效果。该方案实现了"高性能硬件+高效推理引擎+轻量化模型"的最佳组合,特别适合边缘计算
本文详细介绍了在昇腾310P芯片上部署DeepSeek-R1-Distill-Qwen-32B大模型的完整流程。首先配置了Kylin Linux服务器环境,安装NPU驱动和固件;然后下载模型权重并采用Docker方式安装MindIE推理引擎;通过修改配置文件启动服务,最后用curl命令测试推理效果。该方案实现了"高性能硬件+高效推理引擎+轻量化模型"的最佳组合,特别适合边缘计算
本文详细介绍了在昇腾310P芯片上部署DeepSeek-R1-Distill-Qwen-32B大模型的完整流程。首先配置了Kylin Linux服务器环境,安装NPU驱动和固件;然后下载模型权重并采用Docker方式安装MindIE推理引擎;通过修改配置文件启动服务,最后用curl命令测试推理效果。该方案实现了"高性能硬件+高效推理引擎+轻量化模型"的最佳组合,特别适合边缘计算
本文介绍了在离线环境中安装Dify插件的解决方案。通过使用dify-plugin-repackaging工具,可以将插件及其Python依赖打包成.zip文件,实现离线安装。具体步骤包括:1)获取repackaging工具;2)下载目标插件并重新构建;3)生成包含依赖的离线插件包;4)通过Dify界面进行本地安装。文章还提供了常见报错处理方法,如修改.env配置文件中的验证签名、插件大小限制等参数
Dify 是一个开源的 LLM 应用开发平台,支持通过可视化界面快速构建基于大语言模型的聊天机器人、知识库问答系统等。然而,在某些企业或政府环境中,服务器无法直接访问互联网,这就要求我们采用“离线安装”的方式部署 Dify。本文将详细介绍如何在完全离线的环境中完成 Dify 的部署。通过上述步骤,我们成功在无网络环境中部署了 Dify,为企业内部构建私有化 AI 应用提供了基础平台。离线部署虽然步
Dify 是一个开源的 LLM 应用开发平台,支持通过可视化界面快速构建基于大语言模型的聊天机器人、知识库问答系统等。然而,在某些企业或政府环境中,服务器无法直接访问互联网,这就要求我们采用“离线安装”的方式部署 Dify。本文将详细介绍如何在完全离线的环境中完成 Dify 的部署。通过上述步骤,我们成功在无网络环境中部署了 Dify,为企业内部构建私有化 AI 应用提供了基础平台。离线部署虽然步
Dify 是一个开源的 LLM 应用开发平台,支持通过可视化界面快速构建基于大语言模型的聊天机器人、知识库问答系统等。然而,在某些企业或政府环境中,服务器无法直接访问互联网,这就要求我们采用“离线安装”的方式部署 Dify。本文将详细介绍如何在完全离线的环境中完成 Dify 的部署。通过上述步骤,我们成功在无网络环境中部署了 Dify,为企业内部构建私有化 AI 应用提供了基础平台。离线部署虽然步







