logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

为什么 AI Agent 重新爱上了文件系统(Filesystems)

大家开始编写 aboutme.md 文件,来充当可移植的身份描述 —— 你的偏好、你的技能、你的工作风格,全都放在一个文件里,这个文件可以在不同应用间流转,无需任何人去对接 API。而是说:你的数据、你的上下文、你的偏好、你的技能、你的记忆 —— 以一种你拥有的格式存在着,任何智能体都能读取,不会被锁死在某个特定的应用里。他指出,Claude Code 之所以有效,是因为它运行在你的电脑上,使用你

文章图片
#人工智能#AI
汽车长翅膀:GPU 是如何加速深度学习模型的训练和推理过程的?

鉴于 CUDA kernels 的工作空间为 device 的内存(device memory),故需向 kernel 提供 device 指针(device pointers)(d_A、d_B 和 d_C),以确保其能在 device 的内存上运行。对于深度学习模型而言,其实质就是一系列涉及矩阵(matrix)与张量(tensor)的运算操作,包括但不限于求和(sum)、乘法(multiplic

文章图片
#AI#GPU#GenAI
解构 MCP 的伪需求与 CLI 的真价值

文章也坦承,MCP 在某些缺乏 CLI 的场景下仍有其存在意义,但警示开发者不应本末倒置 —— 在没有提供基础 CLI 和 API 的情况下,优先投入资源去构建 MCP 服务器。MCP 曾许诺提供更简洁的接口,但在实际操作中,我发现自己到头来还是得写同样的文档:每个工具是干什么的,接受哪些参数,更重要的是,什么时候该用它。我们今天为大家带来的这篇文章,作者的核心观点是 MCP(模型上下文协议)并非

文章图片
#人工智能#AI
以 Nano-vLLM 为例,深入理解 LLM 推理引擎(Part 2)

相反,每个 head 执行一次投影(projection),这是一种通过学习得到的变换方式,将完整的 4096 维输入压缩成该 head 特有的 128 维表征。Nano-vLLM 则做了简化,仅支持 Qwen 模型,但背后遵循的工程模式和优化思路,其实是通用的。这个是可以训练出来的。尽管单位参数的效率有所损失,但凭借其庞大的总体规模,它可以达到的能力,是任何可训练的稠密模型都无法企及的。输出是

文章图片
#人工智能#AI
微软多模态推理模型 Phi-4-reasoning-vision 训练经验分享

作者 | Jyoti Aneja, Michael Harrison, Neel Joshi, Tyler LaBonte, John Langford, Eduardo Salinas编译 | 岳扬Phi-4-reasoning-vision-15B 是一款拥有 15B 参数的开源权重多模态推理模型,可通过 Microsoft Foundry[1]、HuggingFace[2] 和 GitHub

文章图片
#人工智能#AI
探索将大语言模型用作推荐系统

编者按:目前大语言模型主要问答、对话等场景,进行被动回答。是否可以将大模型应用于推荐系统,进行主动推送呢?这篇文章回顾了可以将大模型作为推荐系统的理论基础,并重点描述了基于英文和阿拉伯语的购物数据集微调T5-large模型,探索将LLMs用作推荐系统的实践。同时本文还介绍了LLMs作为推荐系统的优点和缺点,并提出建议和可行的方向。以下是译文,Enjoy!

文章图片
#语言模型#自然语言处理#人工智能
Claude Code中的Commands→Skills→Agents是进阶路径?你可能理解错了

作者通过“代码整洁度检查”这一完整示例,清晰展示了如何组合使用 Command + Agent 实现手动流程,或 Skill + Agent 实现智能主动介入,并强调 —— 选择依据不应是“功能复杂度”,而应是“谁来决定执行时机”。Command 是手动触发器。Agent 并非比 Command “更高级” —— Command 是触发器,Agent 是执行者,它们扮演着不同的角色。Command

文章图片
#AI#人工智能
OpenClaw 架构详解 · 第二部分:并发、隔离以及确保智能体正常运行的不变量(Invariants)

我们今天为大家带来的文章,作者的观点是:构建可靠 AI 智能体系统的关键,不在于精巧的提示词,而在于通过强制执行少量核心不变量(Invariants)来管理并发和状态,将自主性约束在可控范围内。如果你见过 Agent “疯狂刷屏回复”,或者在执行中途“无视用户的纠正”,那么上文提到的队列模式(queue modes)就是控制这些行为的“调节旋钮”。一个不那么光鲜但真实的事实:决定你的 Agent

文章图片
#人工智能#AI
如何减少单智能体输出结果的不确定性?利用并行智能体的“集体智慧”

但我能观察到它的行为模式:它高度重视多个智能体之间的一致意见,同时也会指出那些值得考虑的异常情况,并且更为关键的是,当多个结果收敛到一个简单方案时,它倾向于选择更简洁的解决方案(尤其是在我额外通过提示词强调“追求简洁”的情况下)。而具有独立起点的并行智能体则能跳出这类陷阱,探索问题空间的不同区域,突破平庸的解决方案,找到更优方案。在之前的文章中,我谈到了我对上下文工程的心智模型:上下文工程的目标是

文章图片
#人工智能#AI
OpenClaw 架构详解 · 第一部分:控制平面、会话管理与事件循环

OpenClaw 是一款可自托管、开源的个人 AI 助手,与典型的聊天应用相比,它更贴近你的操作系统。OpenClaw 的官方安全文档几乎说出了所有人的顾虑:运行具有 shell/文件访问权限的 agent 是有风险的,不存在绝对安全的配置 —— 你的目标是审慎地控制谁可以与它对话、它可以在哪里行动、它能接触哪些资源。今天为大家带来的这篇文章,作者给出了一个清晰而坚定的答案:OpenClaw 的“

文章图片
#人工智能#AI
    共 199 条
  • 1
  • 2
  • 3
  • 20
  • 请选择