logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

OpenAI 如何安全运行 Codex:Agent 时代的“AI 安全操作系统

OpenAI 如何安全运行 Codex:Agent 时代的"AI 安全操作系统" OpenAI 文章揭示了 Codex 作为执行系统的安全架构,标志着 AI 从建议系统向执行系统的转变。核心安全机制包括: 沙箱隔离:限制文件、网络和系统访问 分级审批:低风险自动执行,高风险人工审批 网络管控:严格限制外网访问 凭证管理:绑定企业身份体系 行为审计:完整记录 Agent 意图和执

#安全#人工智能
OpenAI 如何安全运行 Codex:Agent 时代的“AI 安全操作系统

OpenAI 如何安全运行 Codex:Agent 时代的"AI 安全操作系统" OpenAI 文章揭示了 Codex 作为执行系统的安全架构,标志着 AI 从建议系统向执行系统的转变。核心安全机制包括: 沙箱隔离:限制文件、网络和系统访问 分级审批:低风险自动执行,高风险人工审批 网络管控:严格限制外网访问 凭证管理:绑定企业身份体系 行为审计:完整记录 Agent 意图和执

#安全#人工智能
Perplexity 如何设计 Agent Skills:从 Prompt Engineering 到 Context Engineering

Perplexity提出"Skill"作为Agent能力的工程化管理单元,将传统Prompt Engineering升级为Context Engineering。Skill是面向模型的可路由、可加载、可维护的运行时上下文模块,采用分层渐进式加载机制:索引层(<100token)负责路由,核心层(~5000token)包含规则和常见问题,资源层按需加载。方案解决了传统Pro

Perplexity 如何设计 Agent Skills:从 Prompt Engineering 到 Context Engineering

Perplexity提出"Skill"作为Agent能力的工程化管理单元,将传统Prompt Engineering升级为Context Engineering。Skill是面向模型的可路由、可加载、可维护的运行时上下文模块,采用分层渐进式加载机制:索引层(<100token)负责路由,核心层(~5000token)包含规则和常见问题,资源层按需加载。方案解决了传统Pro

Perplexity 如何设计 Agent Skills:从 Prompt Engineering 到 Context Engineering

Perplexity提出"Skill"作为Agent能力的工程化管理单元,将传统Prompt Engineering升级为Context Engineering。Skill是面向模型的可路由、可加载、可维护的运行时上下文模块,采用分层渐进式加载机制:索引层(<100token)负责路由,核心层(~5000token)包含规则和常见问题,资源层按需加载。方案解决了传统Pro

Perplexity 如何设计 Agent Skills:从 Prompt Engineering 到 Context Engineering

Perplexity提出"Skill"作为Agent能力的工程化管理单元,将传统Prompt Engineering升级为Context Engineering。Skill是面向模型的可路由、可加载、可维护的运行时上下文模块,采用分层渐进式加载机制:索引层(<100token)负责路由,核心层(~5000token)包含规则和常见问题,资源层按需加载。方案解决了传统Pro

多智能体协调模式:五种方法及其适用场景

构建多智能体系统时,选择合适的协调模式往往比优化单个智能体的能力更重要。盲目追求“高级”模式而忽略问题本身的适配性,是许多团队容易陷入的误区。本文系统介绍五种实用的多智能体协调模式 ——和—— 分析各自的 trade-offs,并提供从简到繁的演化路径。本文基于 Claude 平台工程团队的实践总结,原文标题:。

放弃封装,回归裸金属:Browser Use 给所有Agent开发者上的沉痛一课

摘要: 当前AI浏览器代理过度封装,反而限制了大模型能力。文章反思了过度包装CDP协议和异常处理的错误,指出大模型原生理解浏览器底层操作。裸用CDP具有处理复杂页面、反爬和无痕特征等优势。作者提出极简架构(仅600行代码),允许模型自行修改代码甚至补全功能,如自主实现文件分片上传。核心观点是:人类过度严谨的代码成为AI的束缚,未来方向应是删减代码、回归底层,充分释放大模型的原始能力。开源项目Bro

还在使用向量检索吗?来试试构建个人知识库的新范式:LLM Wiki

摘要:LLM Wiki 提出了一种新型知识管理范式,通过持久化、结构化的维基系统替代传统RAG。其核心在于让LLM主动构建和维护知识库,而非每次查询时重新检索原始文档。系统采用三层架构(原始资料层、Wiki层、Schema层)和标准化操作流程(摄取、查询、检查),实现了知识的持续积累与更新。开源项目llm-wiki展示了该理念的落地实现,支持多场景模板、两阶段知识处理、智能问答等功能,显著提升了知

Github Trending一周汇总(2026.2.1-2026.2.8)

本次榜单中的13个热门项目,核心聚焦两大技术热点:一是AI智能体相关(含私人AI助手、编码智能体、智能体编排、记忆增强等),二是大模型轻量化相关(含1比特LLM推理、低成本部署等),均为当前AI技术落地应用的核心方向。从技术特性来看,项目主要具备三大特点:其一,开发语言集中度高,TypeScript与Python为主要开发语言,分别适配前端/全栈场景与AI/后端场景;其二,实用性突出,均围绕开发者

#github
    共 19 条
  • 1
  • 2
  • 请选择