logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

为什么 ChatGPT 用久了反而效率下降?一次使用方式的复盘

一开始我以为是模型问题,后来发现并不是。

CCR 不止做人像一致性:用“裁决型运行时”把司机状态检测做成可控 AI 系统

用 CCR 把司机状态检测从“识别工具”升级为“可拒绝、可审计、可交付动作”的可控 AI 系统。

CCR公安试点场景锚点定义模板

裁决属性:硬锚点(Hard Anchor)字段类型填写规范裁决规则五官比例【F】比例值明确比例(如:鼻梁高度 : 鼻翼宽度 = 1 : 0.8)偏差 > ±3% → FAIL眼距比例【F】比例值眼距 : 单眼宽度偏差 > ±3% → FAIL面部轮廓类型【F】枚举椭圆 / 方形 / 鹅蛋 / 倒三角类型变化 → FAIL下颌特征【F】枚举+数值圆润 / 方正 + 下颌宽度比例结构变化 → FAIL

当 AI 不再乱跑:一些以前做不了的事,开始变得可行

真正的 AI 应用爆发,并不发生在模型发布那一天,而发生在人类终于敢把它用进正经场景的那一刻。而这一刻,正在到来。作者:yuer可控 AI / EDCA OS。

#人工智能
可控 AI 时代来了:当模型幻觉无限趋向于 0,我们到底能得到什么?

如果有一天,AI 不再因为“必须回答”而乱说,而是因为“条件满足”才回答,那么我们迎来的不是一个更激进的时代,而是一个终于可以放心使用 AI 的时代。这,才是“可控 AI”的真正价值。作者:yuer可控 AI / EDCA OS。

#人工智能
在可控 AI 逻辑下,做 AI 量化高质量因子实战(4)

谁有权决定:什么叫结构性失败什么叫“即使可能赚钱,也必须停止”什么叫“不可继续冒险”这不是统计问题,而是责任问题。它涉及:资本承受能力法律与合规边界组织风险偏好生存目标模型可以触发失败,但不能定义失败。一旦失败合法性被外包给模型,你失去的不是收益,而是责任主体资格。

#人工智能
在可控 AI 逻辑下,做 AI 量化高质量因子实战(3)

表现形式(alpha / 风险因子 / 单因子 / 组合)→ 转为“结构探针 / 约束器 / 状态触发器”很多你曾经见过、用过、甚至“跑得还不错”的因子,技术形态(动量 / 反转 / ML / 基本面)否定了“未经裁决就进入回测调参”的黑工厂范式。这一约束一旦成立,量化因子世界不会“进化”,在“失败条件先行 / 可控 AI”视角下,在可控体系里,它们的地位会被显著抬高,在可控体系里,连“实验资格”

#人工智能
在可控 AI 逻辑下,做 AI 量化高质量因子实战(2)

未经裁决就进入回测调参循环,是量化里最昂贵、也最隐蔽的无效劳动。裁决到底从哪里来?多数量化流程给出的默认答案是:看回测结果看收益看稳定性看是否“还能再调”这看起来很合理,但在可控系统视角下,这是一个逻辑倒置。你允许一个东西,在“是否该存在”尚未被判断之前,就消耗大量算力、时间与认知资源。在任何严肃工程体系里,这都是非法流程。一旦收益被允许参与裁决,因子的定义就会开始发生“漂移”:定义会围绕表现调整

#人工智能#量化因子
从量化算子到通用执行原语:一套可迁移的 Rust 执行模型

算子系统的本质,是一组“通用执行原语”的组合方式。这些原语描述的是:谁在执行何时执行带着什么状态如何失败如何组合如果有人未来写:“我们在 yuer 的算子模型基础上,构建了一个 AI 风控执行系统。这套模型已经脱离了量化语境,进入工程世界。

#rust
低熵回答倾向:语言模型中的一种系统稳定态

AI 经常“不说人话”,不是因为它不懂人话,而是因为:当一个系统不知道自己是否有权对你负责时,最安全的行为,就是对任何人都不说实话。从工程角度看,更残酷的一句话是:当一个系统必须通过语言来表达自己的边界时,它在工程上已经没有边界了。

#语言模型#人工智能#机器学习
    共 24 条
  • 1
  • 2
  • 3
  • 请选择