
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
或者框架强制要求数据、模型参数、张量维度能被 GPU 数量整除,确保每张卡分到完全相同的工作量。为什么一定要这样设计?能不能让某些卡多干点、某些卡少干点?│ 为什么要求均匀切分?││ 1. 同步等待 —— 木桶效应导致算力浪费 ││ 2. 通信原语 —— AllReduce 要求张量形状一致 ││ 3. 数学正确 —— 梯度聚合的正确性保证 ││ 4. 工程简洁 —— 代码实现和维护的便利性 ││
当我们追问"为什么要用LLM是如何理解"结构"的?通过特殊的、不可分割的、在训练中被反复强化的标记。就像人类用标点符号区分句子,用段落分隔主题,LLM也需要自己的"标点符号"。就是LLM世界里的"引号"——它告诉模型:“注意,接下来的内容属于某个特定角色。理解这一点,你就理解了prompt engineering的本质:你不是在"写文字",而是在构建一个token序列,用结构引导模型的注意力。下次
NNI (Neurol Network Intelligence) 是微软开源的自动机器学习工具。与当前的各种自动机器学习服务或工具相比,有非常独特的价值。本文先介绍一下 NNI 的特点,然后再后续的安装、使用章节详细介绍如何上手。支持私有部署。云服务中的自动机器学习直接提供了自动机器学习的服务,不仅包含了自动机器学习的功能,也包含了算力。如果团队或个人已经有了很强的算力资源,就需要支持私有部..
Nanobot 虽然自称"lightweight",但在架构设计上相当成熟。它展示了如何在有限的代码量内构建一个生产可用消息总线解耦让系统天然支持多渠道扩展ReAct 循环让 LLM 成为灵活的决策引擎两层记忆 + Token 预算管理解决了长对话的持久性问题虚拟工具调用让 LLM 输出结构化且可靠渐进式降级保证系统在各种异常情况下的可用性纵深安全防护应对 prompt injection 和 S
本文记录了在nanobot AI Agent框架中实现/soul和/mem斜杠命令的过程。/mem通过复用已有记忆归档逻辑顺利实现,而/soul在迭代中遇到LLM API兼容性问题。最初版本因未调用LLM而无效,第二版尝试强制工具调用时发现Moonshot API不支持tool_choice与深度思考模式并用。最终方案通过降级处理解决了兼容性问题,实现了用户主动触发人格文件写入和记忆归档的功能。
Nanobot 虽然自称"lightweight",但在架构设计上相当成熟。它展示了如何在有限的代码量内构建一个生产可用消息总线解耦让系统天然支持多渠道扩展ReAct 循环让 LLM 成为灵活的决策引擎两层记忆 + Token 预算管理解决了长对话的持久性问题虚拟工具调用让 LLM 输出结构化且可靠渐进式降级保证系统在各种异常情况下的可用性纵深安全防护应对 prompt injection 和 S
本文记录了在nanobot AI Agent框架中实现/soul和/mem斜杠命令的过程。/mem通过复用已有记忆归档逻辑顺利实现,而/soul在迭代中遇到LLM API兼容性问题。最初版本因未调用LLM而无效,第二版尝试强制工具调用时发现Moonshot API不支持tool_choice与深度思考模式并用。最终方案通过降级处理解决了兼容性问题,实现了用户主动触发人格文件写入和记忆归档的功能。
本文记录了在nanobot AI Agent框架中实现/soul和/mem斜杠命令的过程。/mem通过复用已有记忆归档逻辑顺利实现,而/soul在迭代中遇到LLM API兼容性问题。最初版本因未调用LLM而无效,第二版尝试强制工具调用时发现Moonshot API不支持tool_choice与深度思考模式并用。最终方案通过降级处理解决了兼容性问题,实现了用户主动触发人格文件写入和记忆归档的功能。
冷热分离:最近 10 轮对话为"热数据"保持原样;10 轮之前为"冷数据"。递归摘要:Hard Limit 触发时,提取最早的冷数据块发送给摘要模型,压缩为 300 字以内的高密度文本。原位替换:原本占用 15,000 Tokens 的 20 轮对话,被替换为仅占 200 Tokens 的摘要节点。结果:释放 98% 的上下文空间,Agent 对历史事件的认知几乎无损。最自然的工具描述方式不是 J
Manus 可类比为“iPhone 模式”——封闭但流畅,将复杂性隐藏在精心设计的云端架构之后,适合追求"描述目标即可获得结果"的用户。其核心壁垒在于多智能体协同的调优经验和上下文工程的积累。OpenClaw 可类比为“Linux 模式”——开放且强大,将控制权和责任都交给用户,适合有技术能力且重视数据主权的开发者和团队。其核心壁垒在于社区生态的网络效应和"始终在线"的本地助手体验。







