
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
我们在讨论 AI Agent(智能体)时经常会发现一个问题,Agent 往往跑不远,任务一复杂,Agent 就容易“断片”或者“发疯”。为什么会这样?因为 AI 的“脑容量”(上下文窗口)是有限的。工具越多,干扰信息就越多。中间步骤越多,无效信息就越多。

我们在讨论 AI Agent(智能体)时经常会发现一个问题,Agent 往往跑不远,任务一复杂,Agent 就容易“断片”或者“发疯”。为什么会这样?因为 AI 的“脑容量”(上下文窗口)是有限的。工具越多,干扰信息就越多。中间步骤越多,无效信息就越多。

大模型和算力的快速发展,促进了很多行业的变革,即使目前AI仍然处于“自主行动”的初级阶段,即“辅助人”的阶段,其巨大的潜力和演进路径却是相对明确的。

大模型和算力的快速发展,促进了很多行业的变革,即使目前AI仍然处于“自主行动”的初级阶段,即“辅助人”的阶段,其巨大的潜力和演进路径却是相对明确的。

当你构建自己的 Agent 时,可以选择底层 SDK,比如 OpenAI SDK 或 Anthropic SDK,也可以选择更高层次的抽象,比如 Vercel AI SDK 或 Pydantic。我们之前的选择是采用 Vercel AI SDK,但只使用其提供商抽象,基本上自己驱动 Agent 循环[1]。现在我们[2]不会再做这样的选择了。Vercel AI SDK 本身没有任何问题,但当你尝试

当你构建自己的 Agent 时,可以选择底层 SDK,比如 OpenAI SDK 或 Anthropic SDK,也可以选择更高层次的抽象,比如 Vercel AI SDK 或 Pydantic。我们之前的选择是采用 Vercel AI SDK,但只使用其提供商抽象,基本上自己驱动 Agent 循环[1]。现在我们[2]不会再做这样的选择了。Vercel AI SDK 本身没有任何问题,但当你尝试

最近面试里被问到一个非常典型的问题:

最近面试里被问到一个非常典型的问题:

前段时间,我参加了豆包的AI产品经理笔试。题目很有趣:针对Manus这类通用Agent,为特定人群设计特定场景,并完成从需求拆解到工具定义的完整方案。完成笔试期间,我系统性研究了 OpenAI Function Calling、Anthropic Tool Use等工具接口规范和 Agent 调度机制,以及Manus首席科学家Peak Ji分享的Context Engineering最佳实践。在那
前段时间,我参加了豆包的AI产品经理笔试。题目很有趣:针对Manus这类通用Agent,为特定人群设计特定场景,并完成从需求拆解到工具定义的完整方案。完成笔试期间,我系统性研究了 OpenAI Function Calling、Anthropic Tool Use等工具接口规范和 Agent 调度机制,以及Manus首席科学家Peak Ji分享的Context Engineering最佳实践。在那







