
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文基于 GPUStack 提供的本地模型能力,结合 OpenClaw 与飞书,实战演示如何构建一个可长期运行、几乎不再关心 Token 消耗的本地 AI 助手,让 AI 真正成为随手可用的工作伙伴。

本文介绍了在AI Max 395设备上部署OpenBMB开源智能体模型AgentCPM的全流程。文章首先介绍了4B参数的AgentCPM-Explore和8B参数的AgentCPM-Report两款模型的特点与性能优势,包括在多个基准测试中超越闭源模型的表现。随后详细讲解了在搭载AMD Strix Halo处理器的零刻GTR9 Pro上,通过Ubuntu系统配置ROCm环境、优化显存分配的具体步骤

本文基于 GPUStack 提供的本地模型能力,结合 OpenClaw 与飞书,实战演示如何构建一个可长期运行、几乎不再关心 Token 消耗的本地 AI 助手,让 AI 真正成为随手可用的工作伙伴。

GPUStack 正式发布并开源,一个用于运行 LLM(大型语言模型)的开源 GPU 集群管理器。

最近,推理引擎领域出现了两件具有标志意义的事件:vLLM 和 SGLang 相继走向公司化。vLLM 核心团队成立 Inferact,完成 1.5 亿美元融资,估值达 8 亿美元:图源:InferactSGLang 团队也成立了 RadixArk,同样获得融资,估值达到 4 亿美元:图源:RadixArk这并不是两起孤立的创业故事,而是在同一个时间点,对同一件事情给出了市场层面的确认:推理已经正式

最近,推理引擎领域出现了两件具有标志意义的事件:vLLM 和 SGLang 相继走向公司化。vLLM 核心团队成立 Inferact,完成 1.5 亿美元融资,估值达 8 亿美元:图源:InferactSGLang 团队也成立了 RadixArk,同样获得融资,估值达到 4 亿美元:图源:RadixArk这并不是两起孤立的创业故事,而是在同一个时间点,对同一件事情给出了市场层面的确认:推理已经正式

通过 n8n 接入 GPUStack 本地模型,构建一个自动抓取 RSS、生成摘要并邮件推送的 AI 资讯助手。全流程本地运行,零 API 成本,数据不出域,快速体验私有化 AI 自动化。

一键跑通 PaddleOCR-VL,极速体验行业顶尖的文档解析实力。

摘要: GPUStack是一个开源模型服务平台,支持Linux、Windows和macOS,兼容NVIDIA、AMD、昇腾等多种GPU/NPU,构建异构集群运行LLM、多模态等模型。最新v0.7版本强化了推理性能与部署体验,新增昇腾MindIE多机分布式推理、寒武纪MLU适配、模型计量计费等功能,并推出桌面端一键安装包简化本地开发。平台提供OpenAI兼容API,集成vLLM等推理引擎,支持资源调

摘要: GPUStack是一个开源模型服务平台,支持Linux、Windows和macOS,兼容NVIDIA、AMD、昇腾等多种GPU/NPU,构建异构集群运行LLM、多模态等模型。最新v0.7版本强化了推理性能与部署体验,新增昇腾MindIE多机分布式推理、寒武纪MLU适配、模型计量计费等功能,并推出桌面端一键安装包简化本地开发。平台提供OpenAI兼容API,集成vLLM等推理引擎,支持资源调








