logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【AI】MCP和Skills

只需要把它们放到 Claude Desktop 的配置里,你的 Claude 就能瞬间学会“查你的资料”这个技能了。

#MCP
【AI】MCP、A2A和Skills:Agentic AI的最核心基础设施

底层用 MCP:先把公司里的数据库、Slack、Jira 全部变成 MCP Server,让 AI 能连得上。中间层用 Skills:编写各种 Skills(如“自动报修 Skill”、“周报生成 Skill”),把业务逻辑教给 AI。顶层用 A2A:搞一堆不同角色的 Agent(客服、运维、财务),用 A2A 协议把它们连成一个网,让它们自己开会解决问题。

#人工智能#MCP
【AI】深度解析OpenClaw智能体循环(Agentic Loop):底层运行机制、ReAct演进与多智能体协同架构

人工智能系统正在经历从“被动响应的聊天机器人(Chatbot)”向“能够自主推理、规划并操作物理与数字环境的自主智能体(Autonomous Agent)”的根本性范式转变。在这一技术演进的浪潮中,OpenClaw作为一个在2026年初短短六十天内迅速突破15.7万GitHub Star的开源智能体网关平台,提供了一个极具代表性且被广泛验证的工业级参考架构。

文章图片
#人工智能#react.js#架构
【AI】深度解析OpenClaw智能体循环(Agentic Loop):底层运行机制、ReAct演进与多智能体协同架构

人工智能系统正在经历从“被动响应的聊天机器人(Chatbot)”向“能够自主推理、规划并操作物理与数字环境的自主智能体(Autonomous Agent)”的根本性范式转变。在这一技术演进的浪潮中,OpenClaw作为一个在2026年初短短六十天内迅速突破15.7万GitHub Star的开源智能体网关平台,提供了一个极具代表性且被广泛验证的工业级参考架构。

文章图片
#人工智能#react.js#架构
【AI】深度解析OpenClaw智能体循环(Agentic Loop):底层运行机制、ReAct演进与多智能体协同架构

人工智能系统正在经历从“被动响应的聊天机器人(Chatbot)”向“能够自主推理、规划并操作物理与数字环境的自主智能体(Autonomous Agent)”的根本性范式转变。在这一技术演进的浪潮中,OpenClaw作为一个在2026年初短短六十天内迅速突破15.7万GitHub Star的开源智能体网关平台,提供了一个极具代表性且被广泛验证的工业级参考架构。

文章图片
#人工智能#react.js#架构
【AI】深度解析OpenClaw智能体循环(Agentic Loop):底层运行机制、ReAct演进与多智能体协同架构

人工智能系统正在经历从“被动响应的聊天机器人(Chatbot)”向“能够自主推理、规划并操作物理与数字环境的自主智能体(Autonomous Agent)”的根本性范式转变。在这一技术演进的浪潮中,OpenClaw作为一个在2026年初短短六十天内迅速突破15.7万GitHub Star的开源智能体网关平台,提供了一个极具代表性且被广泛验证的工业级参考架构。

文章图片
#人工智能#react.js#架构
【IC】什么是芯片间接口 -- die 2 die interface

芯片间接口是一种功能模块,用于在同一封装内组装的两个硅芯片之间提供数据接口。芯片间接口利用极短的通道连接封装内的两个芯片,从而实现远超传统芯片间接口的功率效率和极高的带宽效率。芯片间接口通常由物理层 (PHY) 和控制器模块组成,可在两个芯片的内部互连结构之间提供无缝连接。芯片间 PHY 采用高速 SerDes 架构 或高密度并行架构实现,这些架构经过优化,可支持多种先进的 2D、2.5D 和 3

文章图片
【AI】LLM的硬件视角 -- KV Cache

简单来说,答案是: 因为在生成当前这一个token时,你只需要当前token的Q(Query),但需要用到前面所有token的K(Key)和V(Value)。而你必须存储过去所有的 K(关键词) 和 V(内容) ,因为它们是你回顾历史、确保文章连贯性的全部资料库。因为你上一步写“小明”时的“想法”(过去的Q),对于你现在要写“跑”这个词时的“想法”(当前的Q)是 没有帮助的。你永远只关心 当下 的

#人工智能
【AI】LLM是如何求解复杂数学题的?decoder only的LLM为什么能解数学题?

擅长分解 :通过“思维链”将复杂问题转化为它擅长的、一步接一步的文本生成任务。懂得求助 :通过“工具使用”将自己不擅长的精确计算外包给计算器或代码解释器。见多识广 :通过海量数据的训练,“记住”了大量的数学知识和解题模式,并进行模仿和套用。可以把LLM想象成一个记忆力超群、不知疲倦、但逻辑能力有限的“学霸”。它自己可能无法“顿悟”一个全新的数学定理,但它看过几乎所有人类已经解决过的题型,并且知道如

#人工智能
【AI】为什么decoder-only的LLM能够理解输入?

通过在数万亿级别的文本和代码上进行训练,模型确实已经把关于语法、事实、逻辑、风格等海量的“世界知识”压缩并存储在了它那数千亿个 模型权重(参数)里。这些权重是模型能力的基石。“编码”阶段 : 模型会先把你的整个Prompt P 过一遍它的Decoder网络。在这个阶段,自注意力机制(Self-Attention)虽然是带掩码的(Causal),但对于处理Prompt本身是足够有效的。当你输入一个P

#人工智能
    共 61 条
  • 1
  • 2
  • 3
  • 7
  • 请选择