
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Web 安全领域有一条铁律:永远不要信任用户输入。SQL 注入、XSS、命令注入,这些漏洞的根源都一样——程序把用户提供的数据当成了指令来执行。大模型时代,这个老问题换了一张新面孔,叫做 Prompt 注入。但它比传统注入更棘手——传统注入有明确的语法边界可以做转义和过滤,而 LLM 处理的是自然语言,指令和数据之间根本不存在一条清晰的分界线。

你有没有想过:为什么AI聊天时用向量检索记忆就够了,但让它规划家务时,它需要的竟然是SQL数据库?

几乎每个人都用过多轮对话——打开 ChatGPT 聊几句就是。但是要设计一个多轮对话可不容易。多轮对话 Agent 的设计之所以难,不是因为某一个技术点特别深奥,而是因为它要求你同时想清楚好几件事情怎么协同运作:上下文怎么管、状态怎么追踪、记忆怎么存、上下文窗口装不下了怎么办、对话中途要调工具怎么处理……这些子问题单拎出来都不算太难,但一旦放进"多轮对话"这个场景里,它们之间的耦合关系会让整体复杂

做了一年Java开发真的要emo了…天天围着CRUD转,改不完的bug、加不完的班,身边做了很多年的同事薪资钉死在原地,晋升通道窄得看不见头,感觉再干下去就要被行业淘汰了😭

1. 如何实现多 Agent 协作系统?2. 什么是 RAG(Retrieval Augmented Generation)?

Python、torch必须能手写;神经网络、深度学习原理、Transformer底层机制(forward、attention)要吃透,不能只调库。

大模型应用开发面经(5年经验)岗位:AI大模型应用开发

我面试过不少人,说熟悉RAG,结果一问就穿帮。RAG绝大多数工程师只碰到前半段:拿个LangChain,上个向量库,把chunk和embedding丢进去跑个检索;

老王就看了一眼我的简历,就一眼,0.1秒都不到,就开始上压力了:“你不知道现在是 AI 时代吗?简历上连个 Agent 项目都没有,你是怎么敢投 AI 岗的?”

上周,Anthropic下场,发布了官方Harness: **Claude Managed Agents**,将Harness从概念变成产品。








