
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Agent Skills 说白了就是"带加载机制的结构化提示词",听起来朴素,但真正用起来,解决的都是做智能体时最烦的那些问题——上下文膨胀、主提示词越改越乱、不同场景相互打架、调试全靠盲猜。完整实现不到两百行 Python,一个下午就能跑起来。建议先写一个技能试试水,感觉顺手了再逐步扩展。有些看起来很花哨的架构,其实核心就是把常识性的工程思路——按需加载、关注点分离、模块化——老老实实落到 Pr

Agent Skills 说白了就是"带加载机制的结构化提示词",听起来朴素,但真正用起来,解决的都是做智能体时最烦的那些问题——上下文膨胀、主提示词越改越乱、不同场景相互打架、调试全靠盲猜。完整实现不到两百行 Python,一个下午就能跑起来。建议先写一个技能试试水,感觉顺手了再逐步扩展。有些看起来很花哨的架构,其实核心就是把常识性的工程思路——按需加载、关注点分离、模块化——老老实实落到 Pr

Claude Code 中的技能是基于提示词的对话与执行上下文修改器,通过元工具架构运作。技能是SKILL.md文件里的提示词模板,不是可执行代码Skill 工具(大写 S)是tools数组里的元工具,管理所有个别技能,不在系统提示词里技能通过注入指令提示词(消息)修改对话上下文技能通过变更工具权限和模型选择修改执行上下文技能选择通过LLM 推理完成,不是算法匹配工具权限通过执行上下文修改器,作用

最近 AI 圈子里流行一个话题:Karpathy 搞了个 autoresearch,把实验循环给自动化了。结果马上就有人说,那算什么,老子把整个实验室都自动化了。这个项目叫,🦞,一只"会做研究"的龙虾。,文献真实、实验真跑、引用可验证,全程不需要人工干预。听起来有点离谱,但它确实把流程全打通了。下面来拆一拆。

近几个月来,AI领域出现了一个令人担忧的趋势:尽管开源社区在不断进步,但闭源模型(如GPT-5、Gemini-3.0-Pro)的性能提升速度明显更快,开源与闭源之间的差距不是在缩小,而是在扩大。架构效率瓶颈:传统的注意力机制在处理长序列时效率极低,限制了模型的部署和训练训练资源不足:开源模型在后训练(post-training)阶段的计算投入严重不足智能体能力落后:在实际部署的AI Agent场景

2025年6月,Qwen 团队开源了面向文本的 Qwen3-Embedding 和 Qwen3-ReRanker 模型系列,在多语言文本检索、聚类和分类等多项下游任务中取得了业界领先的性能。和模型系列。这些模型基于开源的 Qwen3-VL 模型构建,专为多模态信息检索和跨模态理解场景设计,能够将文本、图像、文档图像和视频等多种模态映射到统一的表示空间中。Qwen3-VL-Embedding 模型采

值得单独提一下的是,比如 Anthropic 的 CLAUDE.md 技能文件,它把编排指令直接嵌进系统提示或结构化的 Markdown 文件里。这种方式下,LLM 本身就成了循环控制器——它读取 Harness 规则,然后照着执行。当模型足够强、能做到自我引导,而且你需要快速迭代、不想每次都改代码的时候,这是个相当好用的选择。

写论文这件事,最难的不是有想法,而是把想法变成一篇有逻辑、有文献支撑、有图表佐证的完整稿件。PaperOrchestra用多智能体分工的方式,把这个过程拆解成可以并行、可以迭代优化的若干步骤,证明了从"实验日志"到"投稿级论文"的全程自动化,在今天的技术条件下已经是可行的——而且质量能跟人类写的论文打个有来有回。

今天 Anthropic 发布了新一代前沿模型,跑分断崖式领先,但普通人完全用不上——不上线 claude.ai,不开放 API,不面向开发者,什么都没有。技术报告:https://www.anthropic.com/glasswing。

今天 Anthropic 发布了新一代前沿模型,跑分断崖式领先,但普通人完全用不上——不上线 claude.ai,不开放 API,不面向开发者,什么都没有。技术报告:https://www.anthropic.com/glasswing。








