logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

搭建一个简易神经网络(PyTorch)

搭建一个简易神经网络(PyTorch)就是通过对 权重参数(w1,w2) 的更新来优化模型。一个批次的数据从输入到输出的完整过程是:先输入 100 个具有 1000 个特征的数据;经过隐藏层后变成 100 个具有 100 个特征的数据;再经过输出层后输出 100 个具有 10 个分类结果值的数据;在得到输出结果之后计算损失并进行后向传播,这样一次模型的训练就完成了。'''导入必要的包,然后定义 4

#pytorch#深度学习#神经网络 +2
搭建一个简易神经网络(PyTorch)

搭建一个简易神经网络(PyTorch)就是通过对 权重参数(w1,w2) 的更新来优化模型。一个批次的数据从输入到输出的完整过程是:先输入 100 个具有 1000 个特征的数据;经过隐藏层后变成 100 个具有 100 个特征的数据;再经过输出层后输出 100 个具有 10 个分类结果值的数据;在得到输出结果之后计算损失并进行后向传播,这样一次模型的训练就完成了。'''导入必要的包,然后定义 4

#pytorch#深度学习#神经网络 +2
深度学习PyTorch笔记(11):线性神经网络——线性回归

深度学习PyTorch笔记(11):线性神经网络5 线性神经网络5.1 线性回归5.1.1 线性回归的基本元素5.1.2 解析解5.1.3 数值解5.2 线性回归的从零开始实现5.2.1 生成数据集5.2.2 读取数据5.2.3 建立模型5.3 线性回归的简洁实现5.3.1 生成数据集5.3.2 读取数据5.3.3 建立模型这是《动手学深度学习》(PyTorch版)(Dive-into-DL-Py

#pytorch#深度学习#神经网络
2021李宏毅机器学习(5):Domain Adaptation

2021李宏毅机器学习(5):Domain Adaptation1 Domain Shift2 Domain Adaptation2.1 Basic Idea——寻找 Feature Extractor2.2 Domain Adversarial Training2.2.1 Feature Extractor2.2.2 Domain Classifier2.2.3 Limitation2.2.4

#机器学习#人工智能#深度学习 +2
2021李宏毅机器学习(3):类神经网络训练不起来怎么办

2021李宏毅机器学习(3):类神经网络训练不起来怎么办1 任务攻略1.1 如果在训练集上的 loss 始终不够小1.2 如果 loss 在训练集上小,在测试集上大1.3 任务攻略的示意图2 局部最小值 (local minima) 与鞍点 (saddle point)3 批次(batch)与动量(momentum)3.1 批次(batch)3.2 动量(momentum)1 任务攻略1.1 如果

#机器学习#神经网络#深度学习 +1
深度学习PyTorch笔记(12):线性神经网络——softmax回归

深度学习PyTorch笔记(12):线性神经网络——softmax回归6 线性神经网络——softmax回归6.1 softmax回归6.1.1 概念6.1.2 softmax运算6.2 图像分类数据集(Fashion-MNIST)6.2.1 读取数据集6.2.2 读取小批量6.2.3 整合所有组件6.3 softmax回归的从零开始实现6.3.1 获取和读取数据6.3.2 初始化模型参数6.3.

#pytorch#深度学习#python
迁移学习——猫狗分类(PyTorch:自定义 VGGNet 方法)

迁移学习 Transfer Learning(PyTorch)1 迁移学习入门2 数据集处理2.1 验证、测试数据集用两种方法来通过搭建卷积神经网络模型对生活中的普通图片进行分类:自定义结构的卷积神经网络模型通过使用迁移学习方法得到的模型通过这两种方法,解决同样的问题,以此来看看在效果上是传统的方法更出色,还是迁移学习方法更出色。1 迁移学习入门出现诱因:希望用耗费很多资源训练出来的模型能够解决同

#pytorch#迁移学习#深度学习 +1
机器学习中的数学基础(一):高等数学

在看西瓜书的时候有些地方的数学推导(尤其是概率论的似然、各种分布)让我很懵逼,本科的忘光了,感觉有点懂又不太懂,基于此,干脆花一点时间简单从头归纳一下机器学习中的数学基础,也就是高数、线代、概率论(其实大学都学过)。本文全部都是基于我自己的数学基础、尽量用方便理解的文字写的,记录的内容都是我本人记忆不太牢靠、需要时常来翻笔记复习的知识,已经完全掌握的比如极限连续性啥的都不会出现在这里。学习内容来自

#人工智能
2021李宏毅机器学习(4):卷积神经网络CNN

2021李宏毅机器学习(4):卷积神经网络CNN1 前言2 简化方法1:Receptive field(感受野)1 前言图片一般用的是三维的张量,也就是:三维就是 长度*高度*通道数,在长宽里面每一个长度、宽度都包含了一个像素,像素里面包含了三个数字(RGB这三个通道的),为了能够输入进神经网络,就把这三维拉直成一个tensor:从图片可以看出,这样的数据量其实是非常巨大的,于是我们想要简化。那么

#机器学习#cnn#人工智能 +2
深度学习计算机视觉理论基础(PyTorch)

深度学习计算机视觉理论基础(PyTorch)1 神经网络与cv1.1 经典的人工神经元模型:M-P 模型1.2 感知机(Perceptron)的诞生1.3 计算机视觉2 深度神经网络基础2.1 监督学习和无监督学习2.1.1 监督学习(Supervised Learning)(1)回归问题(2)分类问题2.1.2 无监督学习(Unsupervised Learning)2.1.3 小结2.2 欠拟

#pytorch#深度学习#神经网络 +2
    共 24 条
  • 1
  • 2
  • 3
  • 请选择