
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Java AI Agent = 大模型的“脑子” + Java 工程的“手和脚”。普通的 ChatGPT 聊天窗口,本质是“你问一句,它答一句”,它没有手脚、不能真正帮你做事。而 Agent(智能体)不一样,它在一个目标驱动理解用户意图:你说“帮我查一下北京明天要不要带伞”,它知道这是“查天气”。规划下一步动作:它会想“我需要先调天气 API,再根据降水概率给建议”。调用外部工具 / 系统:真的去

摘要 本文探讨了计算机系统中的缓存一致性问题和Java内存模型(JMM)。首先分析了CPU缓存导致的数据不一致问题,介绍了两种解决方案:总线加锁和MESI协议。随后详细阐述了JMM的架构,包括主内存与线程本地内存的交互机制,以及8种原子操作(如lock、read、load等)的规范。文章还解析了内存屏障的四种类型及其作用,最后说明了volatile关键字在Java中的三大特性:保证可见性、禁止指令
大模型幻觉是指AI生成看似合理但实际错误的信息,表现为语义连贯、表达自信但缺乏事实依据。在后端系统中,幻觉可能导致代码生成错误、故障误判、知识问答不准确等风险。常见类型包括事实性、编造型、推理型等幻觉,根源在于模型机制、训练数据限制及工程链路问题。治理幻觉需结合文档验证、测试校验和系统边界设计,尤其在代码生成、故障排查等关键场景需严格审查,避免错误结论进入生产环境。
本文揭示了多轮对话的核心机制与工程挑战。大模型本身是无状态的,所谓的"记忆"实际上是每次请求都将完整对话历史重新传入。随着对话轮次增加,会面临三大问题:Token累积导致成本飙升、上下文溢出报错,以及信息丢失风险。文章将深入解析messages协议底层原理,并提出三种上下文管理策略(截断、滚动摘要、向量召回),同时分享生产级Memory系统设计实践与Java落地方案,帮助开发者
本文介绍了如何使用SSE(Server-Sent Events)实现LangChain4j Agent的流式响应,让AI像ChatGPT一样"边想边说"。文章对比了SSE、WebSocket和轮询三种方案,指出SSE最适合LLM流式场景。技术实现上,通过将ChatModel替换为StreamingChatModel,并利用SseEmitter将Token逐个推送给前端,同时处理
本文介绍了如何使用SSE(Server-Sent Events)实现LangChain4j Agent的流式响应,让AI像ChatGPT一样"边想边说"。文章对比了SSE、WebSocket和轮询三种方案,指出SSE最适合LLM流式场景。技术实现上,通过将ChatModel替换为StreamingChatModel,并利用SseEmitter将Token逐个推送给前端,同时处理
本文介绍了如何使用SSE(Server-Sent Events)实现LangChain4j Agent的流式响应,让AI像ChatGPT一样"边想边说"。文章对比了SSE、WebSocket和轮询三种方案,指出SSE最适合LLM流式场景。技术实现上,通过将ChatModel替换为StreamingChatModel,并利用SseEmitter将Token逐个推送给前端,同时处理
只会思考、不会行动的 AI,本质是个百科全书,不是个助手。Agent 要做的,就是给 AI 装上手和脚。所有工具都实现同一个接口,方便统一调度。// 工具名// 描述(给 LLM 看)// 参数 schema(给 LLM 看)// 实际执行用注解把普通 Java 方法变成 LLM 可调用的工具。@Component@Tool("查询指定城市指定日期的天气,返回温度(摄氏度)、天气状况")
本文深入解析思维链(CoT)技术,揭示其如何通过"显式输出中间推理步骤"提升大模型表现。文章从CoT的起源、有效性原理、三大流派(Zero-shot/Few-shot/Auto-CoT)展开,并梳理其进化路线(Self-Consistency/ToT/GoT等)。最后通过Python实现和真实案例(数学题/SQL/代码调试)展示CoT的实战应用,同时讨论其局限性和工程化落地要点
本文深入解析思维链(CoT)技术,揭示其如何通过"显式输出中间推理步骤"提升大模型表现。文章从CoT的起源、有效性原理、三大流派(Zero-shot/Few-shot/Auto-CoT)展开,并梳理其进化路线(Self-Consistency/ToT/GoT等)。最后通过Python实现和真实案例(数学题/SQL/代码调试)展示CoT的实战应用,同时讨论其局限性和工程化落地要点







