登录社区云,与社区用户共同成长
邀请您加入社区
ControlNet十年演进(2015–2025)摘要 2015年条件生成仅依赖简单文本/类标签,2023年ControlNet诞生后迅速演进,从单条件控制发展为多模态意图级生成。中国实现从跟随到领跑(阿里通义、DeepSeek等主导),控制精度从边缘级提升至物理级一致,应用扩展至视频、量子鲁棒等场景。2025年进入VLA意图级+自进化阶段,推动AI生成从随机创作转向精确意图控制,渗透率预计超95
在当今数字化和智能化的时代,企业面临着日益复杂的组织管理挑战。组织网络作为企业中人员、部门之间关系的抽象表示,对于理解企业的运行机制、提高管理效率至关重要。传统的组织分析方法往往难以处理复杂的网络结构和海量的数据。而企业AI Agent结合图神经网络的方法,为组织网络的分析与优化提供了新的思路和技术手段。本文的目的在于详细介绍企业AI Agent的图神经网络在组织网络分析与优化中的应用,包括核心概
摘要(149字): 2015-2025年,AI基础设施从单机多卡手工训练演进为量子加速云原生体系,实现万亿级模型实时训练。中国云厂商(阿里云/华为云等)推动关键跃迁:2017年K8s容器化(效率提升50倍)、2021年万卡集群(成本降80%)、2023年大模型云原生标配(DeepSeek等),至2025年量子混合精度+自进化调度实现零运维、万倍效率提升和99%成本降低,使AI训练从实验室瓶颈迈向普
摘要: 2015-2025年,多模态大语言模型(MLLM)从单模态孤岛跃升至万亿级具身智能系统。2015-2018年以VQA手工对齐为主,参数规模百万级;2019-2022年CLIP革命推动对比学习与融合预训练,实现零样本分类;2023-2025年进入VLA端到端自进化时代,华为、阿里等中国厂商主导十万亿级模型研发,零样本泛化率超99%,赋能智驾、机器人等实时多模态交互。中国从技术跟随者发展为全球
摘要(148字): 2015-2021年AutoGPT尚未出现,依赖手工Agent开发;2023年AutoGPT开源引爆多代理协作,中国小鹏X-Agent等快速跟进;2024-2025年进入VLA具身自进化时代,华为盘古、银河量子级Agent实现全域社交零干预决策。十年间,中国从跟随者跃升为领跑者,推动AutoAgent渗透率从0%增至60%+,技术从单模态脚本升级为多模态意图伙伴,促成"
摘要: 2015至2025年,Index技术从手工规则和倒排索引发展为多模态VLA自进化系统,实现从关键词匹配到全域动态意图检索的跃迁。中国从跟随FAISS到领跑全球,阿里、华为、百度等企业推动向量规模从千万级扩展至万亿级,准确率从70%提升至99%以上,实时性优化至毫秒级。技术演进分为三个阶段:2015-2018年的倒排索引时代,2019-2022年的稠密向量与ANN时代,以及2023-2025
摘要: 2015至2025年,Agent技术经历了从单一规则脚本到通用智能伙伴的跨越式发展。早期Agent(2015-2018)依赖固定脚本和简单规划,任务单一;2019-2022年强化学习和大模型驱动使其具备多任务能力;2023-2025年多模态VLA(视觉语言动作)Agent实现意图级自进化与量子鲁棒协作,渗透率突破70%。中国从跟随到领跑,小鹏、华为、阿里等推出领先Agent方案,推动人类与
Fine-tuning十年演进:从手工调参到VLA自进化(2015–2025) 2015年,Fine-tuning仍依赖全参数手工微调,精度损失高达10–20%。2025年,量子加速的VLA意图级自适应微调已实现<0.1%精度损失和10000倍效率提升,零样本泛化率突破99%。中国从BERT时代的跟随者跃升为全球领跑者,华为盘古、阿里通义千问、百度文心等主导了LoRA→QLoRA→VLA P
摘要: 2015–2025年,MoE架构从理论复苏(8–16专家)演进为万亿级多模态VLA动态MoE(十万级专家),激活参数比例从10%降至0.1%,效率提升超1000倍。中国实现从跟随(华为盘古、阿里M6)到领跑(DeepSeek、小鹏VLA MoE),推动AI从稠密计算转向稀疏意图级专家协同。2025年MoE渗透率达80%,量子加速与自进化技术成为标配,全域具身智能实现实时决策,标志着AI文明
摘要: ZeRO(零冗余优化器)从2019年微软开源的内存优化技术,到2025年已发展为支持十万亿参数大模型训练的量子混合框架。十年间,其内存节省从70%提升至99.9%,训练效率增长超1000倍,渗透率达85%以上。中国从初期跟随(华为、DeepSeek)到主导量子ZeRO创新,推动AI从千亿瓶颈迈向实时普惠训练。关键节点包括2020年ZeRO-3支持千亿模型、2023年MoE融合、2025年量
摘要: FSDP(Fully Sharded Data Parallel)历经十年(2015–2025)从ZeRO概念发展为支持十万亿参数大模型训练的核心技术。2020年PyTorch集成后,内存节省达90%+,训练效率提升千倍。中国从跟随到领跑,华为、DeepSeek等定制优化FSDP,推动其在MoE、量子混合精度等领域的突破。2025年,FSDP结合自进化分片与量子加速,成为大模型训练标配,渗
摘要(150字): 2015-2025年,Triton从无到有,演进为OpenAI主导的Python级GPU内核语言,实现全自动编译优化,成为万亿模型训练/推理标配。中国从跟随者跃升为全球并跑/领跑者(华为昇腾、阿里/腾讯等深度定制),开发效率提升1000倍+,性能逼近手工CUDA。2015-2018年为手工CUDA时代;2019-2022年Triton开源,Python写内核革命;2023-20
神经网络诞生于20世纪40年代,取得重要突破的节点在20世纪70年代、20世纪80年代、21世纪初。20世纪70年代:Paul Werbos博士提出了影响深远的Back Propagation的神经网络学习算法,实际上找到了训练多层神经网络的方法。
系统的输出仅取决于预先的设定或当前的输入,而不依赖于系统的反馈结果。
AI进化史:从单细胞到超级个体的成长之路 摘要: AI的发展经历了五个关键阶段:1)单细胞阶段(基于规则的简单逻辑);2)神经元阶段(神经网络初步连接);3)大脑阶段(Transformer架构突破算力限制,形成大语言模型);4)教育阶段(通过预训练、微调和强化学习培养专业能力与价值观);5)超级个体阶段(装备工具与知识库,成为可执行复杂任务的智能体)。这一进化过程展现了AI如何从机械执行逐步发展
本文通过5个逐步复杂的能量发射场景,生动解释了卷积的物理意义:卷积描述了历史输入信号(f)在当前时刻(t)的累积效应(e),考虑了系统特性(g)对信号的衰减作用。在场景1-5中,从单次发射到持续发射,最终推导出卷积公式e(t)=∫f(τ)g(t-τ)dτ。文章指出卷积广泛应用于信号处理(时间信号衰减)和图像处理(空间特征提取),并哲学性地引申:现状是历史与系统特性的卷积结果,正如艺术家作品融合了全
碎碎念:976目标:本节手撕attention。做到能够默写以及默写标注# Transformer伪代码x = x +# 残差连接x = layer_norm(x)# 层归一化x = x + feed_forward(x)# 残差连接x = layer_norm(x)# 层归一化残差连接会让不同层的特征直接相加,若特征分布差异大,相加后数值会失真;LayerNorm 先归一化特征,让残差连接的数值
本文是深度学习控制系列文章的终章,聚焦工程实践环节,通过两个典型案例展示从仿真到真实部署的全流程。第一个案例详细介绍了四足机器人运动控制的深度强化学习实现,包括40维状态空间和12维动作空间的设计、基于PPO算法的训练流程、奖励函数工程以及课程学习策略。第二个案例展示了机械臂抓取任务,采用SAC算法构建端到端控制系统,包含15维状态空间和8维动作空间的设计。文章特别强调了工程实现细节,如并行环境设
本文介绍了神经网络自适应控制方法,该方法结合了神经网络的逼近能力和自适应控制的稳定性保证。文章首先指出深度强化学习在控制领域存在的稳定性问题,进而提出神经网络自适应控制的解决方案。核心内容包括:1) 通过神经网络逼近系统未知动力学;2) 基于Lyapunov理论设计控制律和自适应更新规则;3) 采用径向基函数网络(RBFNN)实现高效逼近;4) 通过稳定性分析证明闭环系统的有界性。该方法特别适用于
第6集:手写数字的5层尊严(神经网络初登场) 摘要:陆眠穿越回2005年斯坦福,面临数学系百年手写试卷数字化难题。他利用NIST数据集(MNIST前身)构建5层全连接神经网络(784-256-128-64-10),克服2005年技术限制:手动解析二进制数据、使用sigmoid激活函数遭遇梯度消失、在Sun服务器上整夜训练、手推反向传播公式。最终实现96.2%的识别准确率,颠覆了"深度至上
碎碎念:无相,喝水是一把利器。上海transformer简单来说就是一个函数,输入一个序列,预测下一个token是什么。
中国800万技术从业者面临职业困境:掌握AI技术却难转化为持久优势。数据显示,主动分享技术见解的从业者获得优质工作机会的概率是沉默同行的3.2倍,薪酬溢价达25-40%。脉脉AMA活动旨在帮助技术人员突破"沉默困境",通过高质量对话提升表达力、影响力和连接力。活动设计了四个关键议题:从技术专家到翻译者、从个人贡献者到影响力构建者、从工具使用者到工作流设计师、从知识创造者到价值捕
【AI 学习】解密卷积神经网络:从原理到实践
这是 Python 中用于定义生成器函数的关键字。与 return 不同,yield 在每次调用生成器时返回一个值,并暂停函数执行,下次调用时从上次暂停的位置继续。这样可以节省内存,特别适合处理大型数据集。
低空经济 #无人机 #5G网络 #深度学习 #IEEE #论文分享 #通信工程 #机器学习 #RadioMap #网络优化。: 低空网络、解耦表示学习、RSRP、覆盖地图预测、AI for Communication、radiomap。的蓬勃发展(无人机物流、低空监控等),准确预测。:150m、300m、500m三个高度层。:南昌训练 → 赣州测试(不同厂商设备):江西南昌三个区域,共计约9.4万
本文提出了一种基于离散小波变换(DWT)与极端梯度提升(XGB)的混合交通流量预测模型。该模型通过DWT将交通流量信号分解为不同频带的近似和细节分量,利用XGB对各分量独立建模,再重构得到最终预测结果。实验表明,该方法能有效处理交通流的非平稳性和噪声干扰,显著提升预测精度。项目实现了从数据预处理、特征分解、模型训练到结果可视化的全流程自动化,为城市智能交通管理提供了可靠的技术支持。
2025年即将过去,作为一名深耕RAG技术的算法工程师,我想和大家聊聊这一年RAG技术的真实状态——不是那些震惊体标题下的"RAG已死",也不是各种PPT里的宏大叙事,而是我在实际落地中观察到的技术演进、踩过的坑,以及对2026年的真实判断。技术本身没有对错,关键在于是否用对了地方。下期分享: 7 种必须了解的企业落地RAG 架构回看这一年,RAG经历了从狂热到冷静,技术本身在成熟,但大家的心态也
开题报告不是终点,而是起点。它最重要的价值,不是那份文档本身,而是思考的过程——你如何从一个模糊的兴趣,发展成一个可操作的研究问题;如何从零散的文献,构建出清晰的研究背景;如何从各种可能的方法中,选择最适合的研究路径。宏智树AI在这个过程中,就像是一位经验丰富的研究助理,它可以帮助你:更快地找到方向更系统地整理文献更科学地设计研究更规范地撰写报告但它无法替代你的思考、你的判断、你的学术品味。现在,
摘要: 2015-2025年间,LSTM从序列建模的巅峰技术(机器翻译/语音识别主流)彻底退出历史舞台,被Transformer/VLA大模型取代。2015年LSTM主导长序列处理,2017年引入注意力机制,2019年Transformer崛起,2021年预训练模型革命彻底淘汰LSTM。2023年后,多模态大模型(如GPT-4V)实现毫秒级全域动态意图理解,LSTM仅作为思想融入现代架构。中国厂商
摘要: 2015年DQN作为深度强化学习开山之作,以Atari游戏超人类表现引领学术浪潮。历经十年演进(2015–2025),其核心思想(经验回放+目标网络)逐步融入现代VLA大模型,应用场景从离散游戏扩展至连续物理世界决策。中国从初期跟随DeepMind到2025年主导VLA自进化RL创新(宇树、银河通用等),推动技术跃迁。DQN最终从“游戏AI王者”退场,成为强化学习史里程碑,而VLA多模态模
摘要: 2015-2025年,SAM(Segment Anything Model)从手工实例分割演进为零样本通用分割的里程碑式技术。早期(2015-2018)以Mask R-CNN为代表,依赖固定类别标注;中期(2019-2022)开放词汇分割兴起,引入文本提示;2023年Meta发布SAM实现零样本任意分割,中国厂商(阿里、华为等)快速跟进。2025年VLA多模态SAM实现自然语言直驱、毫秒级
摘要: 2015-2025年,AI模型算法从手工CNN/RNN演进至多模态VLA自进化系统,中国实现从跟随到领跑的跨越。早期依赖ResNet/Transformer架构(2015-2018),中期预训练大模型与MoE扩展崛起(2019-2022),2025年形成十万亿级量子鲁棒VLA算法,实现>99%全场景零样本精度。华为、阿里、百度等推动多模态统一与具身智能,算法实时性达亚毫秒级,渗透智驾
摘要: 2015-2025年,模型预测控制(MPC)从线性手工建模(秒级响应)演进为端到端VLA大模型可微MPC(<20μs实时性),预测时域从10步扩展至100+步。中国厂商(华为、小鹏等)推动技术跃迁,实现从工业控制到社交意图柔顺预测的跨越。核心分为三阶段:2015-2018年线性/非线性MPC手工时代;2019-2022年分布式与学习增强交互时代;2023-2025年VLA端到端自进化
神经网络
——神经网络
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net