logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Week 37: 深度学习进阶:基于 OpenClaw 的多智能体协同架构

本周的研究重心从单体 Agent 的认知架构升级为多智能体系统 (Multi-Agent Systems, MAS) 的组织架构。结合最新的 OpenClaw 框架与学术界关于 MAS 设计模式的讨论,我们探索了如何通过角色分工与协作流程来自动化复杂的学术研究任务。单体 Agent 受限于上下文窗口和注意力分散,难以高质量完成“文献调研-论文撰写-同行评审”的全流程。

#深度学习#架构#人工智能
Week 37: 深度学习进阶:基于 OpenClaw 的多智能体协同架构

本周的研究重心从单体 Agent 的认知架构升级为多智能体系统 (Multi-Agent Systems, MAS) 的组织架构。结合最新的 OpenClaw 框架与学术界关于 MAS 设计模式的讨论,我们探索了如何通过角色分工与协作流程来自动化复杂的学术研究任务。单体 Agent 受限于上下文窗口和注意力分散,难以高质量完成“文献调研-论文撰写-同行评审”的全流程。

#深度学习#架构#人工智能
Week 36: 量子深度学习入门:辛量子神经网络与物理守恒

本周的研究深入到了量子机器学习的前沿——辛量子神经网络。在 经典哈密顿神经网络如何通过辛结构保持能量守恒的基础上,本周探讨了如何将这一几何先验引入量子电路的设计中。SQNN 通过构建特殊的正交辛群量子门,确保了量子态演化过程中的辛形式不变性。这不仅解决了普通 QNN 在长时程预测中的发散问题,更为模拟复杂的量子多体系统提供了一种物理一致的架构。这种将物理对称性硬编码进网络结构的做法,被称为 Ind

#深度学习#神经网络#人工智能
Week 35: 量子深度学习入门:PINN与其量子化探索

本周的继续研究物理驱动范式,PINN的核心机制,这是一种将物理定律直接编码进神经网络损失函数的技术,适用于数据稀缺但物理机理明确的环境流体或热力学场景。在此基础上,探讨了利用量子电路强大的表达能力来求解高维 PDE 的可能性。PINN 作为一种优雅的范式,体现了 AI 从归纳到遵循物理公式演绎的变化。Q-PINN 则展示了量子计算作为一种新型“函数拟合器”的潜力。虽然目前还未在工程上超越经典 PI

#深度学习#人工智能
Week 24: 深度学习补遗:Vision Transformer (ViT) 复现

本周对经典的ViT论文进行了复现,对于其Patch Embedding的相关理念进行了较为深入的理解。通过利用上周编写的Transformer模块进行快速复现,提高复现效率并且深入理解了ViT对Transformer的应用以及异同。本周对ViT论文进行了快速复现,灵活运用了上周编写的Transformer代码,对Positional Encoding部分和EncoderLayer部分进行了复用,大

文章图片
#深度学习#transformer#人工智能
Week 28: 机器学习补遗:MoE 原理与时序路由策略

本周重点探讨了混合专家模型 (Mixture of Experts, MoE)。MoE是当前LLM中的研究热点,其思想与集成学习一脉相承,但以端到端可微的方式在深度神经网络中实现。本周比较详细的研究了MoE的数学原理以及从Dense MoE到Sparse MoE的演进逻辑,并针对时间序列数据的非平稳性和时序连续性,深入剖析了Pooling Level MoE相较于传统 Token Level 路由

#机器学习#人工智能
Week 32: 深度学习补遗:Agent的认知架构、记忆系统与高阶规划

本周了解了Agent 的认知架构,在理解基础的 ReAct范式之上,进一步深入研究了支持长程任务的记忆系统与高阶规划。本周重点探讨了如何利用外部向量存储扩展 LLM 的“海马体”,以及如何通过思维树和自我反思机制,让 Agent 具备从错误中学习和处理非线性复杂问题的能力。本周开始学习一些Agent相关的基础理论知识,其本质上是一个运行在 LLM 之上的操作系统。后续除了继续学习深度学习外,尝试了

#深度学习#人工智能
Week 26: 深度学习补遗:LSTM 原理与代码复现

本周对 LSTM模型利用PyTorch进行了复现,将其实现与数学形式进行了逐条对应,清晰、重点地理解门控机制与细胞状态与其在时序场景下的应用。在 2017 年 Transformer 架构(Attention 机制)横空出世之前,LSTM 曾是序列建模(NLP、语音、时序)的绝对王者。而在 2025 年的今天,它不再是唯一的 SOTA,但依然是非常棒的轻量级选择。本周阅读了一些时序预测领域的工作,

#深度学习#lstm#人工智能
Week 27: 机器学习补遗:XGBoost

本周继续回归经典机器学习领域,对XGBoost 进行了学习。本周重点推导了 XGBoost 基于二阶泰勒展开的目标函数,并结合时序预测场景进行学习。本周重新审视了 XGBoost 这一机器学习界的基本算法,通过手推公式和模拟代码,重新尝试理解传统机器学习算法在时序应用上的独特优越之处。在接触多模态风控数据后,发现对于数值型和类别型密集的表格数据,Transformer等深度模型往往需要极其复杂的

#机器学习#人工智能
Week 22: 深度学习补遗:Transformer+Encoder构建

本周主要完成Transformer Encoder的代码构建,继续深挖几个主要组成部分的数学原理以及代码实现之间的细节,将理论与实践相结合。本周完成了Transformer Encoder部分的完整构建,充分的理解了包括位置编码等几项Transformer关键技术的深层数学原理以及应用效果,借助构建Transformer Encoder深入的理解Encoder乃至一个神经网络构建的基本流程以及前向

文章图片
#深度学习#transformer#人工智能
    共 14 条
  • 1
  • 2
  • 请选择