
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
遇到现成积木不够用?自己造!普通残差块:把输入直接 “绕到” 输出端,和加工后的结果相加,让模型更容易学。下采样残差块:如果输入和输出 “形状不匹配”(比如通道数不一样),就加个 1×1 的卷积层 “调整形状”,再和输出相加。把这两种块组合起来,就能拼出 ResNet18 这样的 “大模型”,专门解决深层网络 “学不会” 的问题~PyTorch 搭建神经网络,本质就是 “用 nn.Module/n
遇到现成积木不够用?自己造!普通残差块:把输入直接 “绕到” 输出端,和加工后的结果相加,让模型更容易学。下采样残差块:如果输入和输出 “形状不匹配”(比如通道数不一样),就加个 1×1 的卷积层 “调整形状”,再和输出相加。把这两种块组合起来,就能拼出 ResNet18 这样的 “大模型”,专门解决深层网络 “学不会” 的问题~PyTorch 搭建神经网络,本质就是 “用 nn.Module/n
从单个感知机(只能画直线),到多层感知机(靠隐藏层和激活函数画曲线),本质是让 AI 从 “处理简单问题” 进化到 “搞定复杂任务”。训练时只要避开欠拟合、过拟合,调对超参数,“神经军团” 就能越来越强~
梯度下降靠 “反梯度方向” 更新参数,是基础操作;小批量随机梯度下降是深度学习的 “默认选手”,又快又实用;调好学率和批量大小,模型训练能少走很多弯路~线性回归是 “数值预测小能手”,靠公式和梯度下降算准连续值;Softmax 回归是 “分类贴标专家”,用 Softmax 运算把置信度变概率,轻松给事物分类别。两者都是深度学习的 “地基模型”,学好它们,就能解锁更复杂的 AI 技能啦!