登录社区云,与社区用户共同成长
邀请您加入社区
Docker CE 是开源的容器引擎核心,提供镜像、容器和仓库管理功能,实现应用打包与跨环境运行。Docker Compose 是多容器编排工具,通过YAML文件定义服务依赖关系,简化复杂应用的部署流程。两者协同工作:Docker CE负责单容器运行,Compose管理多容器应用栈。典型应用包括开发环境标准化、微服务部署等。安装方式因操作系统而异,Linux可通过包管理器或脚本安装,macOS/W
本文介绍了如何使用轻量级开源密码管理器Vaultwarden自建私有密码管理系统。Vaultwarden是Bitwarden的优化版本,资源占用低且支持Docker部署,适合个人服务器甚至树莓派运行。文章详细讲解了Docker部署流程,强调必须配置HTTPS(推荐使用Caddy反向代理和Certd管理证书),并展示了密码导入和客户端使用体验。相比商业密码管理服务,Vaultwarden让用户完全掌
输入 exit 退出,没有看到uv run main.py 跑的服务输出的日志,但是 uv run main.py 跑的服务其实仍在进行。执行 docker ps -a 指令,查看所有容器(包括运行的和没运行的)启动multi-agent的服务,同时将主机的显示接口X11挂载到容器里。通过 docker cp 将宿主机的文件,移动到 docker 容器中。删除之前构建的镜像(先删除使用这些镜像的容
Linux服务器路径部署建议
上周三凌晨两点,我盯着终端里那个报错发呆——一块A100 80G显存,跑一个7B的LLaMA推理,居然OOM了。检查了半天,发现是模型加载时把KV cache的max_seq_len设成了4096,加上batch size 4,显存直接炸穿。同事在旁边说:“要不换个更小的模型?”我摇头,业务场景要求必须保留这个特定微调后的能力。那晚我翻出了压箱底的模型压缩方案,最终把模型体积砍掉60%,推理速度提
(如不能同时运行 api + openai-server)。如果需要多种服务,只能运行其中一个,或使用 Router 聚合远程 API。目前 compose.yaml 不直接支持昇腾 NPU 的设备透传配置,建议使用。Docker Compose 需要 MinerU 的 Docker 镜像,需先构建。:Docker 部署仅支持 Linux 和 Windows WSL2,使用 NPU Dockerf
发现这点后,我感觉这也太low了,毕竟之前jar包也就将近200m,而且使用的是阿里的云效流水线构建工具,这样构建一次得花多久?最最让我恶心的是,我上周快下班时候使用这种方式成功转换了一次,这就给我一种错觉,可能是我启动命令的问题,于是就疯狂尝试修改启动命令,找对应的参数。那我就意识到了,都是docker容器,不一样的只能是挂载文件,那问题就只能出在字体上了,因为用服务器试过word转pdf没有中
禅道是一款国产开源研发项目管理工具,支持敏捷开发、瀑布开发等多种模式,覆盖产品、项目、测试等全生命周期管理。支持私有化部署,数据自主可控,内置测试管理和效能报表,可集成Git/SVN等工具。提供Docker快速部署方案,支持MySQL等数据库。功能包括任务管理、文档管理、看板视图等,适合不同规模团队使用,实现高效协同与流程闭环管理。
—Docker化不是银弹。如果你的LLM应用需要频繁更新模型、或者需要动态调整推理参数,考虑用K8s的StatefulSet配合持久化存储,别硬塞进Docker里。那次凌晨三点的事故之后,我把这套方案写成了内部文档,团队里再没人因为Docker部署LLM出过问题。希望这篇笔记也能帮你少踩几个坑。
OpenClaw是一个强大的AI代理平台,通过Docker部署可以快速搭建环境并运行。本文档将详细介绍如何使用Docker部署OpenClaw以及相关的调试方法。services:openclaw:ports:volumes:networks:- redisretries: 3redis:volumes:networks:volumes:networks:通过Docker部署OpenClaw可以快
此文主要针对需要在x86内网服务器搭建系统的情况。
当需要在 Redis 集群中放置一个 key-value时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,也就是映射到某个节点上。–cluster-replicas 1 表示集群主节点需要多少个从节点,我们用了6台,即3台服务器构成集群,每台服务器设置1台从服务器。4.1 进入端口
Docker 是一个开源的应用容器引擎,参考链接:【docker使用安装教程Redis 是一个开源的使用 ANSI C 语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value 的 NoSQL 数据库,并提供多种语言的 API。本文将介绍docker上安装redis容器的详细过程。
在上一步创建的redis配置文件目录(/data/redis6.2.14/conf)下,创建redis.conf配置文件,启动时,会将这个配置文件挂载到容器中。下载到本地,打开压缩包,将如下的配置文件拷贝到出来,放到部署服务器创建的配置文件目录里面。连接测试有两种方式,第一种:直接用外部的工具进行连接。第二种,进入容器内部,通过redis自带的客户端进行连接。进入docker内部,通过redis自
本地部署与性能测试:千问QwQ32B模型性能表现与潜在应用场景探讨
本地部署通过FastGPT和在线大模型,搭建个人知识库。
chatglm3,原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务,可以本地运行。这样就可以开发更丰富的应用了。
Docker 是一款开源的容器化引擎,允许开发者将应用程序及其依赖项打包到一个可移植的容器中,然后在任何 Linux、Windows 或 macOS 等操作系统上运行。2013 年,Docker 的前身 dotCloud 开始开发 Docker。2013 年 3 月,Docker 首次公开发布。2014 年,Docker 开源,并加入了 Docker Hub,这是一个存储和分享 Docker 镜像
【代码】chatgpt-on-wechat项目 Docker部署问题Dockerfile.alpine文件内容解读。
遇到问题先看日志,大部分问题都是环境变量或字符集配置引起的。
本文记录了在Windows 10系统安装Docker并配置GPU环境的过程。作者在尝试安装WSL和Ubuntu子系统时遇到网络超时问题,后通过调整安装顺序解决。在测试Docker时出现镜像拉取失败,发现是DockerHub连接问题,最终通过配置阿里云等国内镜像源成功拉取NVIDIA CUDA镜像。文中提供了详细的错误排查步骤和解决方案,包括镜像源配置、服务重启等关键操作。完成环境搭建后,成功运行n
本文介绍了在VMware虚拟机上部署最小版DeepSeek大模型的详细步骤。基本配置要求为4核CPU、8G内存和100G硬盘空间,操作系统推荐麒麟V10。部署流程包括:上传安装包至/opt目录、解压缩、赋予脚本执行权限、运行安装脚本(支持重复安装检测)、通过浏览器访问OpenWebUI界面,最后完成管理员账号设置即可使用大模型服务。
如果想让LangChain + Milvus + SentenceTransformer 构建的本地文档问答系统在检索出相关内容后,再让远程的 Ollama(deepseek 模型)生成自然语言回答流程:文档段落 + 问题 → 传给 deepseek 模型(Ollama 远程) → 返回自然语言回答继续在milvus_qa_demo.py脚本后添加# ① 拼接检索到的内容作为上下文# ② 构造 P
Ollama是一个轻量级的本地大模型部署工具,支持多种开源模型,适合快速部署和测试。FastAPI是一个高性能的Python Web框架,适合构建本地大模型API服务。Text Generation WebUI是一个开源的Web界面,支持多种大模型。vLLM是一个高性能推理框架,专为大模型优化,支持DeepSeek等开源模型。prompts = ["如何做西红柿炒鸡蛋?Docker可以简化环境配置
Ollama 支持直接从其模型库中拉取 DeepSeek 相关模型。如果docker仓库拉取不到可以使用本地镜像部署。设置 Docker 开机自启。添加 Docker 仓库。下载并安装 Ollama。启动 Ollama 服务。添加有问题可以换个仓库。
DeepSeek 一经发布就引起社会的广泛的关注,因为 DeepSeek 的价格低廉,性能卓越,提供了多种使用方式,满足不同用户的需求和场景。本文将详细的介绍如何在本地 Windows 上安装部署 Ollama + Open WebUI 来实现用户和 DeepSeek-r1 对话的功能以及利用路由侠内网穿透实现外网访问。
docker
——docker
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net