
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
《从OpenClaw到HermesAgent:新一代AI助手的进化体验》 文章对比了OpenClaw和HermesAgent两款AI助手工具。OpenClaw常因版本更新bug、频繁掉线和API费用问题被吐槽,而HermesAgent凭借50k GitHub star展现出强劲势头。核心差异在于: 自改进Skill功能,自动存储和优化任务处理方案 双层记忆架构(L1持久记忆+L2会话搜索)提升效率

做AI短剧和漫剧的朋友,开源生成平台可以了解一下 : huobao-drama, github上已经6k+star. 从剧本生成、角色形象、分镜制作,到图生视频、剪辑打包,一条龙服务。

用 Hermes 直接指挥本地 CodeX 写代码, Profiles 搭建多Agent实践

OpenClaw 真正“出圈”的原因,不是某次回答更惊艳,而是它把 AI Agent从“单人对话窗口”推进成“能自主完成任务”

《从OpenClaw到HermesAgent:新一代AI助手的进化体验》 文章对比了OpenClaw和HermesAgent两款AI助手工具。OpenClaw常因版本更新bug、频繁掉线和API费用问题被吐槽,而HermesAgent凭借50k GitHub star展现出强劲势头。核心差异在于: 自改进Skill功能,自动存储和优化任务处理方案 双层记忆架构(L1持久记忆+L2会话搜索)提升效率

摘要:本文介绍了一种基于大模型的个人知识库管理新方法LLMWiki,其核心是将知识管理从临时检索转变为持续编译。系统采用三层架构(原始资料层、结构化知识层、规则层)和四层实现方案(规则层、原文层、知识层、操作层),通过自动化脚本实现知识更新和维护。相比传统RAG系统,LLMWiki能持续沉淀知识,支持交叉归纳和迭代优化,显著提升检索效率和写作质量。作者在Obsidian中实践该方法,实现了知识的自

这篇文章是基于 Tw93的一篇长推整理写作的。作者是开源 terminal 项目 Kaku 的作者,深度使用 Claude Code 超过半年,踩了相当多的坑之后,把对Claude Code最核心的判断和工程经验写了出来。我把里面最有价值的部分提炼整理,分享给大家。

摘要:OpenClaw用户常面临token消耗过快的问题,主要原因是AI每次对话都要加载整个记忆文件。社区主流解决方案是使用QMD本地混合检索系统,可节省70%-97%的token。QMD结合关键词搜索、语义搜索和智能排序,完全本地运行不消耗API token。配置方法有两种:新手可通过对话指令完成,进阶用户可手动安装配置。设置完成后,大多数用户能稳定节省80%以上的token消耗

摘要:OpenClaw用户常面临token消耗过快的问题,主要原因是AI每次对话都要加载整个记忆文件。社区主流解决方案是使用QMD本地混合检索系统,可节省70%-97%的token。QMD结合关键词搜索、语义搜索和智能排序,完全本地运行不消耗API token。配置方法有两种:新手可通过对话指令完成,进阶用户可手动安装配置。设置完成后,大多数用户能稳定节省80%以上的token消耗

2025年是AI Agent智能体爆发的元年。不管你是什么行业,Agent都是未来趋势,人人都要懂一点。不懂?








