logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习 —— 个人学习笔记5(模型选择、欠拟合和过拟合)

将数据放入 CUDA 后,‌没有出现过拟合的原因可能在于 CUDA 的使用有助于提高计算效率和数据处理速度,‌从而使得模型训练过程更加高效。‌通过使用 CUDA,‌可以加速模型的训练过程,‌减少训练时间,‌这在某种程度上可能有助于避免过拟合。‌使用 CUDA 进行计算可以加快模型的训练速度,‌使得模型能够更快地收敛到一个较好的解决方案,‌这在一定程度上减少了模型在训练数据上过度拟合的风险。‌此外,

#深度学习#学习
深度学习 —— 个人学习笔记4(多层感知机)

本文章为个人学习使用,版面观感若有不适请谅解,文中知识仅代表个人观点,若出现错误,欢迎各位批评指正。文中部分知识参考:B 站 —— 跟李沐学AI;

#深度学习#学习
深度学习 —— 个人学习笔记6(权重衰减)

本文章为个人学习使用,版面观感若有不适请谅解,文中知识仅代表个人观点,若出现错误,欢迎各位批评指正。文中部分知识参考:B 站 —— 跟李沐学AI;

#深度学习#学习
深度学习 —— 个人学习笔记14(ResNet、DenseNet)

本文章为个人学习使用,版面观感若有不适请谅解,文中知识仅代表个人观点,若出现错误,欢迎各位批评指正。文中部分知识参考:B 站 —— 跟李沐学AI;

#深度学习#学习
深度学习 —— 个人学习笔记3(Softmax_cuda)

本文章为个人学习使用,版面观感若有不适请谅解,文中知识仅代表个人观点,若出现错误,欢迎各位批评指正。文中部分知识参考:B 站 —— 跟李沐学AI;

#深度学习#学习
深度学习 —— 个人学习笔记10(池化层、LeNet)

在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。torch.cat 则会对输入张量进行连接,‌不关心元素的位置,‌只要各个张量的拼接维度匹配即可。‌这种连接方式更加灵活,‌因为它不要求所有输入张量的形状完全相同,‌只要在拼接的维度上尺寸一致即可。‌这意味着堆叠后的张量的维度比输入张量序列的维度多一。torch.stack 会将输入张量序列按照指定维度进行逐个元素的堆叠,‌生成一

#深度学习#学习
深度学习 —— 个人学习笔记15(图像增广、微调)

本文章为个人学习使用,版面观感若有不适请谅解,文中知识仅代表个人观点,若出现错误,欢迎各位批评指正。文中部分知识参考:B 站 —— 跟李沐学AI;

#深度学习#学习
深度学习 —— 个人学习笔记14(ResNet、DenseNet)

本文章为个人学习使用,版面观感若有不适请谅解,文中知识仅代表个人观点,若出现错误,欢迎各位批评指正。文中部分知识参考:B 站 —— 跟李沐学AI;

#深度学习#学习
深度学习 —— 个人学习笔记10(池化层、LeNet)

在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。torch.cat 则会对输入张量进行连接,‌不关心元素的位置,‌只要各个张量的拼接维度匹配即可。‌这种连接方式更加灵活,‌因为它不要求所有输入张量的形状完全相同,‌只要在拼接的维度上尺寸一致即可。‌这意味着堆叠后的张量的维度比输入张量序列的维度多一。torch.stack 会将输入张量序列按照指定维度进行逐个元素的堆叠,‌生成一

#深度学习#学习
深度学习 —— 个人学习笔记10(池化层、LeNet)

在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。torch.cat 则会对输入张量进行连接,‌不关心元素的位置,‌只要各个张量的拼接维度匹配即可。‌这种连接方式更加灵活,‌因为它不要求所有输入张量的形状完全相同,‌只要在拼接的维度上尺寸一致即可。‌这意味着堆叠后的张量的维度比输入张量序列的维度多一。torch.stack 会将输入张量序列按照指定维度进行逐个元素的堆叠,‌生成一

#深度学习#学习
    共 11 条
  • 1
  • 2
  • 请选择