logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Pytorch加载模型后optimizer.step()报RuntimeError: output with shape...错误

存储模型参数后,重新加载接着训练,结果optimizer.step()报错。

#pytorch#深度学习#python
【学习笔记-李宏毅】GAN(生成对抗网络)全系列(一)

前言相关链接1. Introduction1. 1 Basic Idea of GAN1.2 GAN as structured learning1.3 Generator可以自己学吗?VAE(Variational Auto-encoder)2. CGAN, Conditional Generation by GAN2.1 discriminator的架构改进2.2 Stack GAN2.3 I

#学习#生成对抗网络#人工智能
李宏毅2021春季spring作业数据集汇总(百度网盘链接)

视频地址:https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.php作业Github: https://github.com/ga642381/ML2021-Spring数据集汇总:

#深度学习
【学习笔记-李宏毅】GAN(生成对抗网络)全系列(一)

前言相关链接1. Introduction1. 1 Basic Idea of GAN1.2 GAN as structured learning1.3 Generator可以自己学吗?VAE(Variational Auto-encoder)2. CGAN, Conditional Generation by GAN2.1 discriminator的架构改进2.2 Stack GAN2.3 I

#学习#生成对抗网络#人工智能
Python利用LCU接口实现LOL(英雄联盟)一键载入自定义天赋(符文)

本文会介绍如何编写一个LOL一键载入自定义天赋。

文章图片
#python
详解+推导 神经网络中的前向传播和反向传播公式(神经网络中的梯度下降)

文章目录线性回归快速回忆逻辑回归中的正向传播与反向传播逻辑回归中的正向传播与反向传播-代码实战神经网络的正向传播与反向传播线性回归快速回忆在线性回归(y=ax+by=ax+by=ax+b)中,使用梯度下降时的公式为:a=a−ηdJdaa = a-\eta \frac{dJ}{da}a=a−ηdadJ​通过求出代价函数 JJJ 对参数 aaa 的导数,来更新 aaa ,不断重复该过程,直到某次a值的

#神经网络#机器学习
逻辑回归的梯度下降公式详细推导过程

逻辑回归的梯度下降公式逻辑回归的代价函数公式如下:J(θ)=−1m[∑i=1my(i)log⁡hθ(x(i))+(1−y(i))log⁡(1−hθ(x(i)))]J(\theta)=-\frac{1}{m}\left[\sum_{i=1}^{m} y^{(i)} \log h_{\theta}\left(x^{(i)}\right)+\left(1-y^{(i)}\right) \log \lef

万字逐行解析与实现Transformer,并进行德译英实战(一)

1. Transformer各模块的逐行代码实现2. Transformer逐行代码的详细注释3. Transformer的训练和推理4. 利用Transformer进行德译中实战

设计模式面试题(设计模式速成版)

说明该文章适用于之前学习过设计模式,但是基本忘了。使用该文章进行快速回忆。因为是应付面试(不是笔试),所以该文结合了自己的理解,使用大白话来解释各个模型,如有错误或不严谨的地方,欢迎在评论区指正。若之前没有学习过设计模式,可以将该文章死记硬背,然后应付面试。设计模式详细学习,可以参见 http://c.biancheng.net/view/1317.html名词解释设计模式:软件设计模式是对各种面

#设计模式#java#面试
概率论与数理统计常用公式大全

事件的关系与运算A−B=A−AB=AB‾B=A‾  ⟺  AB=∅  且A∪B=Ω(1)吸收律  若A⊂B,则A∪B=B,AB=A(2)交换律  A∪B=B∪A,AB=BA(3)结合律  (A∪B)∪C=A∪(B∪C),(AB)C=A(BC)(4)分配律  A(B∪C)=AB∪AC,A∪BC=(A∪

#概率论#线性代数
    共 25 条
  • 1
  • 2
  • 3
  • 请选择