logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Harness 中的令牌级流控与字符级计费

Harness是一款AI驱动的智能软件交付平台,核心模块包括CI(持续集成)、CD(持续交付)、FF(Feature Flag)、CCM(云成本管理)、CV(持续验证)五大模块,支持多环境、多云、多集群的统一编排,核心价值是将软件交付的效率提升3~10倍,同时降低交付风险。Harness采用多租户SaaS架构,所有能力都通过API对外暴露,用户可以通过Web控制台、CLI、SDK、Terrafor

角色扮演深度设定:提升 Agent 沉浸感

沉浸感(Immersion)在角色扮演场景下,指的是用户在与Agent交互过程中,感知不到Agent的人工智能属性,完全相信Agent就是设定的角色,并且能够代入到对应场景中获得情绪价值的程度。评估维度低沉浸表现(<3分)中沉浸表现(3-7分)高沉浸表现(>7分)身份一致性经常承认自己是AI,频繁违反人设禁忌,说话风格完全不符合角色身份大部分时候符合人设,偶尔出现OOC,遇到未知问题会回避100%

#大数据#人工智能#数据库
隐性知识提取与 AI Agent Harness Engineering 思维链路构建方法

对比维度显性知识隐性知识可编码性可以用文字、公式、图表清晰编码,比如操作手册、产品文档、行业标准难以编码,依赖个人经验、直觉、体感,比如「我感觉这个方案有风险」「这个Bug大概率是缓存问题」传递成本极低,通过文档、课程就能传递极高,需要师傅带徒弟、长期实操积累才能获得存储载体文档、数据库、知识库人类大脑、团队的共同记忆价值密度低,所有人都能获取极高,是企业、个人的核心竞争力应用场景标准化、低风险的

#人工智能#大数据
隐性知识提取与 AI Agent Harness Engineering 思维链路构建方法

对比维度显性知识隐性知识可编码性可以用文字、公式、图表清晰编码,比如操作手册、产品文档、行业标准难以编码,依赖个人经验、直觉、体感,比如「我感觉这个方案有风险」「这个Bug大概率是缓存问题」传递成本极低,通过文档、课程就能传递极高,需要师傅带徒弟、长期实操积累才能获得存储载体文档、数据库、知识库人类大脑、团队的共同记忆价值密度低,所有人都能获取极高,是企业、个人的核心竞争力应用场景标准化、低风险的

#人工智能#大数据
多智能体共识机制:如何解决 Agent 之间的意见分歧与决策死锁?

多智能体系统是由多个自主决策的智能体组成的分布式系统,每个智能体具备独立的感知、推理、决策、执行能力,可通过通信模块和其他Agent交互,共同完成单个智能体无法实现的复杂任务。典型场景包括无人机编队、AGV集群、多Agent办公系统、车路协同系统、供应链协同系统等。通俗来说,多智能体共识就是:无论每个Agent的初始意见是什么,经过标准化的协商流程后,所有Agent最终都认可同一个决策,且不会主动

#人工智能
Agent 规划算法对比:启发式搜索与强化学习的应用场景

self.grid = grid # 0表示可通行,1表示障碍物# 四个动作:上下左右self.step_cost = 1 # 每走一步代价为1# 曼哈顿距离作为启发函数,满足可采纳性,保证最优解# 优先级队列元素:(总估计代价f, 实际代价g, 当前坐标, 父节点)# 记录已访问节点的最小实际代价# 到达目标,回溯生成路径path = []return path[::-1] # 反转得到从起点到

#算法#人工智能
AI Agent Harness Engineering 技术壁垒构建:专利、数据与算法的核心竞争力

概念简明定义生活化类比覆盖AI Agent全生命周期的工程化管控体系,包含编排、调度、观测、安全、优化、协同六大核心模块,实现多Agent的稳定运行、规模扩展、性能迭代电动汽车的整车线束+电控系统:连接电池、电机、传感器、车机系统,管控所有部件的供电、通信、协同运行,同时做故障预警、性能优化专利壁垒在Harness核心技术点上布局的知识产权保护网络,阻止竞争对手通过模仿实现相同功能电动汽车厂的三电

#人工智能#算法#大数据
AI Agent Harness Engineering 技术壁垒构建:专利、数据与算法的核心竞争力

概念简明定义生活化类比覆盖AI Agent全生命周期的工程化管控体系,包含编排、调度、观测、安全、优化、协同六大核心模块,实现多Agent的稳定运行、规模扩展、性能迭代电动汽车的整车线束+电控系统:连接电池、电机、传感器、车机系统,管控所有部件的供电、通信、协同运行,同时做故障预警、性能优化专利壁垒在Harness核心技术点上布局的知识产权保护网络,阻止竞争对手通过模仿实现相同功能电动汽车厂的三电

#人工智能#算法#大数据
自我修正能力:AI Agent如何从错误中学习并改进?

AI Agent的自我修正能力,是指Agent在不修改底层大模型权重的前提下,在推理阶段通过感知环境反馈、反思错误原因、迭代调整输出,持续提升任务完成质量的能力。「不修改模型权重」:区别于微调、RLHF等训练阶段的优化手段,自我修正完全在推理侧实现,成本低、响应快、可定制性强「闭环反馈」:必须有明确的反馈来源(工具执行结果、用户反馈、自动验证结果等),不能是无依据的随机调整「迭代优化」:是一个多次

#人工智能#学习
自我修正能力:AI Agent如何从错误中学习并改进?

AI Agent的自我修正能力,是指Agent在不修改底层大模型权重的前提下,在推理阶段通过感知环境反馈、反思错误原因、迭代调整输出,持续提升任务完成质量的能力。「不修改模型权重」:区别于微调、RLHF等训练阶段的优化手段,自我修正完全在推理侧实现,成本低、响应快、可定制性强「闭环反馈」:必须有明确的反馈来源(工具执行结果、用户反馈、自动验证结果等),不能是无依据的随机调整「迭代优化」:是一个多次

#人工智能#学习
    共 339 条
  • 1
  • 2
  • 3
  • 34
  • 请选择