logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【大数据 & AI】Flink Agents 源码解读 --- (2) --- 核心架构

Flink Agents 框架的核心是“事件驱动 + 状态隔离 + 多语言协作”:通过 Agent/AgentPlan 实现业务逻辑的声明式定义,借助 Flink 原生的分布式、高并发能力实现可靠执行,同时支持 Python 生态的工具 / 模型集成,兼顾了开发灵活性与运行时效率,适用于复杂 AI 代理任务的分布式部署与执行。具体而言,Flink Agents 的组件是对原生 Flink 组件在

#大数据#人工智能#flink
【大数据 & AI】Flink Agents 源码解读 --- (1) --- 设计

Flink Agents 是Apache Flink社区最近推出的一个全新的项目,一个专门为事件驱动场景设计的智能体框架。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。本系列从源码入手,深入解析 / 反推 Flink Agents项目的架构设计。因为属于反推,肯定

#人工智能#大数据#flink +3
【Agent】MemOS 源码笔记---(7)---MemScheduler 细节

记忆调度就像大脑的注意力机制,动态决定在合适的时刻调用合适的记忆。在 MemOS 中,记忆调度(Memory Scheduling)通过对【不同使用效率(参数>激活>工作>其他明文)的记忆】的相互调度,让模型能更高效、准确地获取用户所需的记忆。在对话和任务进行时,通过预测用户后续对话所需记忆并提前调入高效率记忆类型如激活记忆工作记忆,加速推理链路。

#人工智能#语言模型#transformer +1
【Agent】MemOS 源码笔记---(6)---MemScheduler -- 总体

记忆调度就像大脑的注意力机制,动态决定在合适的时刻调用合适的记忆。在 MemOS 中,记忆调度(Memory Scheduling)通过对【不同使用效率(参数>激活>工作>其他明文)的记忆】的相互调度,让模型能更高效、准确地获取用户所需的记忆。在对话和任务进行时,通过预测用户后续对话所需记忆并提前调入高效率记忆类型如激活记忆工作记忆,加速推理链路。

#语言模型#人工智能#transformer
深度学习利器之自动微分(1)

本文和下文以 Automatic Differentiation in Machine Learning: a Survey 这篇论文为基础,逐步分析自动微分这个机器学习的基础利器。

#深度学习#机器学习#人工智能
[源码解析] 深度学习流水线并行Gpipe(1)---流水线基本实现

GPipe是一个基于 Lingvo (Lingvo 是 Google 基于 TensorFlow 二次开发的重点针对序列模型的框架)开发的,支持超大规模模型的神经网络训练并行库,本文介绍其基本功能和流水线机制。

#深度学习#机器学习
[记录点滴]在Ionic和Android中上传Blob图片

本文是开发中的简略记录,具体涉及知识点有:Blob,Ionic,Android和Lua。

【Agent】MemOS 源码笔记---(5)---记忆分类

大模型之所以“忘事”,根本在于我们对“无状态模型”里“上下文窗口”的误解。很多人把它当成一只大箩筐,认为装得越多越好;然而,事实上,上下文窗口更像一块容量有限的工作记忆。硬塞太多信息,只会同时带来如下麻烦:关键内容被噪声淹没,模型抓不住重点,上下文越长,费用和延迟也越高。这不是模型偷懒,而是 Transformer 架构的先天特性。每一次调用都像重新开机:没有长期记忆,上下文一旦过长,注意力就被冗

#人工智能#机器学习
[源码解析] 深度学习流水线并行 PipeDream(6)--- 1F1B策略

在前文中,我们介绍了PipeDream的总体架构,Profile阶段,计算分区阶段,模型转换阶段,运行时引擎和通信模块,本文是 PipeDream 系列最后一篇,介绍 1F1B 策略,这是 PipeDream 最大的贡献。

#深度学习#pytorch
【Agent】MemOS 源码笔记---(4)---KV Cache

MemOS中的KV Cache机制通过预计算和存储语义稳定的背景信息(如FAQ、对话历史)为键值对张量(KVCacheItem),实现了高效记忆复用。该系统将明文记忆转换为KV格式表示,避免重复编码,显著降低推理延迟。KV Cache与TreeTextMemory协同工作,由MemOS统一管理,支持快速响应和高吞吐量的应用场景。相比传统文本记忆方式,KV Cache通过直接注入注意力机制,减少了冗

#语言模型#人工智能
    共 42 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择