
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
面试官:你能讲讲 BatchNorm、LayerNorm、GroupNorm、 InstanceNorm 有什么本质区别吗?很多同学肯定对这三个方法都很熟悉,但是一时间竟然不知道该怎么组织语言回答他们之间的区别,也不知道该从哪些方面进行对比,今天我们就来一次彻底拆解,不背定义、不绕术语,争取讲清楚三者的核心思想和差异本质。

学习理论(Learning Theory)是机器学习的数学与理论基础之一,它可以从严格的数学角度解释和分析学习算法的性质与性能。

在训练神经网络时,学习率(Learning Rate, LR) 是最关键的超参数之一。学习率控制了每次参数更新的步子大小,学习率太大,可能导致震荡甚至发散,模型根本学不下去;学习率太小,训练过程会非常慢,还可能卡在局部最优点。为了在不同阶段取得更好的训练效果,人们设计了各种 学习率调度策略(Learning Rate Scheduling),它们的目标是让学习率在训练过程中动态变化,而不是固定不变

在神经网络的训练过程中,损失函数 ( Loss Function ) 决定了模型优化的方向。没有损失函数,神经网络就不知道该往哪里调整参数,也就无法真正学会任务。损失函数的设计不仅关乎模型能不能收敛,更直接影响最终的性能。

随着深度学习的发展,CNN 的精度不断提升,但代价是网络越来越深、参数越来越多。例如 VGG-19 有 144M 参数,ResNet-152 计算量达到 11.3 GFLOPs。这在实际应用(如移动端推理)中非常昂贵。2019 年,谷歌团队提出 EfficientNet,其核心思想是通过一种系统化的复合缩放(Compound Scaling)方法,在计算量可控的前提下提升模型精度。Efficien

AlexNet:深度学习革命的里程碑 2012年,AlexNet在ImageNet竞赛中以压倒性优势夺冠,错误率比第二名低10%,正式开启了深度学习时代。这个由Alex Krizhevsky等人设计的卷积神经网络具有突破性创新:采用8层网络结构(5卷积+3全连接)、首次大规模使用ReLU激活函数、引入Dropout正则化技术,并开创性地使用GPU并行训练。其关键贡献还包括数据增强方法和更深的网络架

在卷积神经网络(CNN)中,卷积层用于提取图像或特征图的局部模式,而池化(Pooling)是卷积之后常用的一种下采样操作。池化可以降低特征图尺寸、减少计算量,并增强模型对位置和噪声的鲁棒性。下面从几个关键方面来介绍池化。

卷积神经网络(Convolutional Neural Network, CNN)是深度学习中最具代表性和影响力的模型之一。它通过局部感受野、权值共享和多层卷积的方式,高效地提取数据的层次化特征,特别适合处理图像、语音以及具有空间结构的数据。CNN 的提出与成功,使得计算机视觉领域从传统的手工特征提取,迈入了端到端的特征自动学习阶段。

在训练神经网络的过程中,我们经常遇到一个让人头疼的问题:训练集上精度高得离谱,测试集却一塌糊涂。这就是过拟合(Overfitting)。模型在训练集上死记硬背了样本,却没有真正学到可泛化的规律。要解决这个问题,除了多加数据、做数据增强之外,另一个关键武器就是——正则化(Regularization)。

在训练神经网络时,学习率(Learning Rate, LR) 是最关键的超参数之一。学习率控制了每次参数更新的步子大小,学习率太大,可能导致震荡甚至发散,模型根本学不下去;学习率太小,训练过程会非常慢,还可能卡在局部最优点。为了在不同阶段取得更好的训练效果,人们设计了各种 学习率调度策略(Learning Rate Scheduling),它们的目标是让学习率在训练过程中动态变化,而不是固定不变








