
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
深度学习中连续张量和不连续张量
摘要:深度学习中的“连续张量”与“不连续张量”区别在于内存存储方式和数值分布规律。连续张量在内存中按逻辑维度紧密排列,访问高效但可能浪费内存;不连续张量则存在存储错位或数值空缺,虽节省内存但计算效率低。关键差异体现在存储、计算和内存占用三方面。实践中需平衡二者:密集计算使用连续张量,稀疏数据采用不连续张量,并通过contiguous()等方法灵活转换。理解这一概念对优化模型性能和内存效率至关重要。
深度学习中指数加权平均思想
指数加权平均(EWMA)是一种动态加权平均方法,核心思想是对不同时间的数据赋予指数衰减的权重——新数据权重高,旧数据权重呈指数级降低。其递推公式为v_t=βv_t-1+(1-β)x_t,其中β控制记忆长度(β越大衰减越慢)。相比简单移动平均,EWMA无需固定窗口,能更快响应新数据,同时平滑噪声。该方法广泛应用于时间序列分析、机器学习优化(如Adam算法)、信号处理和实时监控等领域。关键优势在于通过
深度学习中的分母布局
摘要: 分母布局是深度学习矩阵微积分的核心计算约定,确保导数维度与分母(求导对象)对齐。核心原则是:标量对列向量求导得行向量,列向量对列向量求导得矩阵,标量对矩阵求导得同维矩阵。该布局天然支持反向传播的链式法则维度匹配(如全连接层梯度计算),主流框架通过自动转置和API封装隐性实现。掌握分母布局能避免维度错误,是推导自定义层梯度的关键。
到底了







