logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI Agent 工程失效的确定性来源与 EDCA 控制解法(工程向)

Agent 早期判断错误后续步骤全部“逻辑自洽”Debug 时发现错误已无法定位。

#人工智能#算法
为什么 RAG 只能“查资料”,却永远理解不了企业业务

RAG 解决的是“AI 不知道”,EDCA 解决的是“AI 不能乱做”。而在企业里,“不能乱做”比“不知道”值钱 100 倍。,跟着我一起制定我们中国自己的AI技术标准!

#人工智能#数据库#算法
为什么直接使用大模型做决策是危险的?一个工程师视角的 AI「操作系统」问题

这里的“决策模型”不是指 ML 模型,而是一层系统逻辑不负责预测不负责生成不负责创意在当前状态下,这个判断是否被允许?工程上,它解决的是:决策一致性行为可复现风险可冻结同题同答。AI 时代最危险的,不是模型不够强,而是我们还在用“工具思维”对待“系统级智能”。真正的挑战不是“让 AI 更聪明”,让 AI 的判断,变得可控、可复现、可托付。

#人工智能
只用一个 GPT 客户端,如何实现一个可控、可审计的投资决策 Runtime?

这不是一个 Prompt。这是一个在对话层实现的 Runtime。当你开始要求 AI:先收集变量再执行判断最后输出可审计结果你就已经进入了下一代人机交互范式。

可控 AI 技术:企业在多模态时代如何治理 AI 行为(工程视角)

可控 AI 技术并不是一场模型升级,而是一种系统责任设计。当 AI 开始参与判断时,工程问题不再只是:性能延迟准确率我们是否还能说清楚:这个判断,是在什么前提下做出的?这正是可控 AI 技术存在的意义。你们在企业中使用 AI 时,是把它当成业务分支,还是已经开始承担“判断责任”?欢迎在评论区讨论。当 AI 还只是工具时,可控性是锦上添花。当 AI 开始参与判断时,可控性是生死线。可控 AI 技术的

#人工智能#大数据
只用一个 GPT 客户端,就能搞定「行业级情绪分析引擎」?|真实项目拆解(CRE 商业地产版)

我是Yuer,独立 AGI 架构师,EDCA OS / Yuer DSL 的提出者。关注我,我会持续输出“真正能落地的大模型工程能力”。

#算法#大数据#AIGC +1
【大模型工程实践】一招教你不用 RAG,也能让模型稳定输出(可控、可审计、低成本)

不要写:“请总结下面的内容。要写:请严格按照以下结构输出:A. 原文事实(不允许推理)B. 关键变量(必须从文本中抽取)C. 逻辑链(逐步说明推导过程)D. 结论(必须基于 A/B/C)只要你把结构定义清楚,模型就不会跑偏。为什么?因为:结构 = 行为约束Section 标题 = 语义锚点填空式执行 = 稳定性最大化这比任何“提示词技巧”都更有效。

#人工智能
为什么传统 RAG / Agent 天生不稳定?

行业会从现在的:“LLM 自由发挥 + 即兴规划”转向:“结构驱动 + 确定性执行 + 可审计链路”这是所有严肃业务场景的必答题。传统 RAG/Agent 天生不稳定,并不是工程师不够努力,而是结构本身就如此。改变结构,才能改变稳定性。如果你正在做:AI Agent企业知识库工作流自动化辅助决策系统金融/法律/医疗的生产级应用欢迎看看这个 POC,也可以一起讨论如何让 RAG/Agent 进入“真

#人工智能
编译型 Agent:LLM 时代真正可工程化的 Agent 架构?

如果说:2022 是大模型年2023 是应用框架年2024 是 Agent 年2025–2027 一定是「编译型 Agent」崛起的时代。它不是“改进版 Agent”,它是下一代AI 工程化基础设施。欢迎技术同行讨论你对编译型 Agent 的理解。我也会继续发布该方向的实验、架构与白皮书。作者:yuer原创文章,欢迎转载请注明。

#人工智能
Yuer DSL:五分钟跑起来的“AI 编程语言”(附完整示例代码 + GitHub)

Yuer DSL 的目标不是“替代编程语言”。AI 如何理解意图、执行行为、保持稳定性。本文提供的 Demo:可复现可运行完全安全不可逆向适合工程师学习与扩展最适合 CSDN 风格欢迎 Star 或 Fork,也欢迎一起讨论 AI 的下一代表达方式。

#人工智能#github
到底了