logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

李沐动手学深度学习pytorch :问题:找不到d2l包,No module named ‘d2l’

下载d2lzh_pytorch直接百度云:链接:https://pan.baidu.com/s/1ndV7qloDG7vIGrZmEdasWw提取码:hwn4将文件夹 d2lzh_pytorch 【记住这个是 小写 L 不是 数字 1 】 放到anaconda 你自己创建的环境下:C:\ProgramData\Anaconda3\envs\pytorchzc\Lib\site-packages重点

#pytorch#深度学习#python
编码器-解码器架构-读书笔记

文章目录1. Encoder-Decoder 架构图2. Encoder_Decoder 代码3. 小结1. Encoder-Decoder 架构图目标:通过编码器与解码器架构,我们可以将不同长度的序列先通过编码器编码成固定长度的隐藏层状态,再通过解码器将固定长度的隐藏层状态解码成不同长度的序列2. Encoder_Decoder 代码接口代码from torch import nnclass E

#架构#深度学习#python
33 - 完整讲解PyTorch多GPU分布式训练代码编写

文章目录1. 单机单卡1.1 环境配置1.2 模型拷贝1.3 数据拷贝1.4 模型保存1.5 模型的加载1.6 注意事项2. 单机多卡2.1 环境配置1. 单机单卡1.1 环境配置判断显卡是否可用import torch# 判断环境中是否有cudaprint(f"torch.cuda.is_available()={torch.cuda.is_available()}")# torch.cuda.

#pytorch#深度学习#python
线性代数|机器学习-P16矩阵A的导数

这节课的主题是定义矩阵A是关于时间t的AtA(t)At,在已知dAtdtdtdAt​的情况下,求解dA−1tdtdλtdtdσtdtdtdA−1t​dtdλt​dtdσt​dAtdt→dA−1tdtdλtdtdσtdtdtdAt​→dtdA−1t​dtdλt​dtdσt​​​。

文章图片
#线性代数#机器学习#矩阵
线性代数|机器学习-P22逐步最小化一个函数

主要讲的是无约束情况下的最小值问题。矩阵求导泰勒公式,函数到向量的转换梯度下降牛顿法梯度下降。

文章图片
#线性代数#机器学习#人工智能
全连接神经网络预测序列模型

文章目录1. 说明2. 代码3. 结果1. 说明我们希望构建一个神经网络,这个神经网络可以在接受4个值来预测随后的第5个值,达到预测序列的作用。[x1,x2,x3,x4][x_1,x_2,x_3,x_4][x1​,x2​,x3​,x4​] ->[x5][x_5][x5​][x2,x3,x4,x5][x_2,x_3,x_4,x_5][x2​,x3​,x4​,x5​] ->[x6][x_6

#神经网络#pytorch#深度学习
李沐动手学深度学习pytorch :问题:找不到d2l包,No module named ‘d2l’

下载d2lzh_pytorch直接百度云:链接:https://pan.baidu.com/s/1ndV7qloDG7vIGrZmEdasWw提取码:hwn4将文件夹 d2lzh_pytorch 【记住这个是 小写 L 不是 数字 1 】 放到anaconda 你自己创建的环境下:C:\ProgramData\Anaconda3\envs\pytorchzc\Lib\site-packages重点

#pytorch#深度学习#python
位置编码源码分析

文章目录1. 来源2. 公式3. 代码1. 来源位置编码的提出是为了解决自注意力因为并行计算而放弃了顺序操作,为了使用序列的顺序信息,我们通过在输入表示中添加位置编码来注入绝对或相对的位置信息。位置编码可以通过学习得到也可以直接固定得到。以下是基于正弦函数和余弦函数的固定位置编码2. 公式假设输入表示 X∈Rn×dX\in R^{n \times d}X∈Rn×d包含了一个序列中的n个词元的d维嵌

#pytorch#python#深度学习
pytorch.permute可视化

文章目录1. torch.permute函数2. x.permute(0,2,1)3. X.permute(1,0,2)1. torch.permute函数作用:将指定的矩阵维度进行重新排序2. x.permute(0,2,1)作用:将第1维和第2维进行互换# 可以看成是有3个(行4,列5)的矩阵x = torch.arange(60).reshape((3,4,5))# 将第1维和第2维进行互换

#pytorch#python#深度学习
pytorch.detach分离函数

文章目录1.官方定义detach2. 解释3. 代码4. 结果5. 小结1.官方定义detach官方解释Returns a new Tensor, detached from the current graph. The result will never require gradient. 返回一个与当前图分离的新张量。结果永远不需要梯度。2. 解释举例说明,假设我们有一个函数 y = x *

#pytorch#人工智能#python
    共 44 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择