logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Claude Code调用Codex失败复盘:从10个Agent、0次codex exec到Bash-only Worker + Hook强制委托

本文基于 Claude Code 与 Codex CLI 协同的真实故障复盘,分析 Agent Teams / subagent 在调用 Codex 时出现的“声明意图即停止”“绕过 Codex 自行生成”“结果不落盘”等失败模式。文章结合 30 个 Claude Code session jsonl 统计、Anthropic Issue #5688、AkitaOnRails 委托实验,以及 Op

文章图片
#bash#chrome#开发语言
Claude Code调用Codex失败复盘:从10个Agent、0次codex exec到Bash-only Worker + Hook强制委托

本文基于 Claude Code 与 Codex CLI 协同的真实故障复盘,分析 Agent Teams / subagent 在调用 Codex 时出现的“声明意图即停止”“绕过 Codex 自行生成”“结果不落盘”等失败模式。文章结合 30 个 Claude Code session jsonl 统计、Anthropic Issue #5688、AkitaOnRails 委托实验,以及 Op

文章图片
#bash#chrome#开发语言
SubQ 与 SSA 架构深度解析:Transformer 的敌人不是更大模型,而是更便宜的长上下文

本文围绕 Subquadratic 发布的 SubQ 1M-Preview 与 SSA(Subquadratic Sparse/Selective Attention)架构展开分析,拆解其“1200万 Token 上下文”“52倍 prefill 加速”“成本低于 Opus 5%”等核心宣称背后的技术含义与边界。文章重点讨论 dense attention 的平方复杂度瓶颈、SSA selecto

文章图片
#架构#transformer#深度学习
SubQ 与 SSA 架构深度解析:Transformer 的敌人不是更大模型,而是更便宜的长上下文

本文围绕 Subquadratic 发布的 SubQ 1M-Preview 与 SSA(Subquadratic Sparse/Selective Attention)架构展开分析,拆解其“1200万 Token 上下文”“52倍 prefill 加速”“成本低于 Opus 5%”等核心宣称背后的技术含义与边界。文章重点讨论 dense attention 的平方复杂度瓶颈、SSA selecto

文章图片
#架构#transformer#深度学习
一条指令跑出465行deepseek-v4的深度解读:CC + Codex 双引擎 Agent Teams 协同实战全拆解

用一条自然语言指令,跑通"论文切分 → 双引擎联网搜索 → Opus 双辩手对抗验证 → 综合终稿"四阶段流程,产出一份可直接发表的 DeepSeek V4 技术解读。本文完整拆解 4 个阶段、2 套 Agent Teams、3 种协同模式的工程细节,附真实 token 统计(41M+ token、37.8M cache read)、模型选型策略、Codex 参数调优带来的 18.6× 质量跳变,

文章图片
#人工智能
一条指令跑出465行deepseek-v4的深度解读:CC + Codex 双引擎 Agent Teams 协同实战全拆解

用一条自然语言指令,跑通"论文切分 → 双引擎联网搜索 → Opus 双辩手对抗验证 → 综合终稿"四阶段流程,产出一份可直接发表的 DeepSeek V4 技术解读。本文完整拆解 4 个阶段、2 套 Agent Teams、3 种协同模式的工程细节,附真实 token 统计(41M+ token、37.8M cache read)、模型选型策略、Codex 参数调优带来的 18.6× 质量跳变,

文章图片
#人工智能
AI 时代最大的谎言:你以为在学习,其实在欠债—思维决定上限的反焦虑框架

MIT 实验证实:重度使用 AI 的人,大脑连接反而最弱。当所有人都会用 Cursor 和 Claude Code,"会用 AI"早就不是壁垒了。本文提出护城河堆栈模型——宽度被抹平、深度才是差异化、沉淀才是复利。你和别人的三年差距不是来自勤奋,是来自沉淀率。附今晚就能做的三个反共识动作。

文章图片
#人工智能#学习#AI
给claudecode装上状态栏,效率起飞!claude-hud插件完全解析

给claudecode装上状态栏,效率起飞!claude-hud插件完全解析

文章图片
#人工智能
循环神经网络RNN介绍

循环神经网络基本知识:结构、序列依赖、梯度消失/爆炸

文章图片
#rnn#人工智能#深度学习
卷积神经网络的入门基本介绍 | 带你快速上手各种概念【附图解】

卷积神经网络的入门基本介绍,带你快速上手卷积网络的各种概念,含有各种图解,学懂晦涩难懂的概念

文章图片
#cnn#网络#人工智能 +2
    共 178 条
  • 1
  • 2
  • 3
  • 18
  • 请选择