
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
RuntimeError: Function AddmmBackward returned an invalid gradient at index 1 -got [64, 256] but expe
问题描述:在对loss反向求导的时候报错:RuntimeError: Function AddmmBackward returned an invalid gradient at index 1 -got [64, 256] but expected shape compatible with [64, 2048]心路历程:首先找度娘,搜索报错内容你应该会看到很多像这样的内容:“RuntimeEr
pytorch训练过程中内存一直慢慢增长直到爆
原因:代码中需要多次用到一个高维tensor,没一个batch都要更新一次它的值,这个值的获得需要过一次网络心路历程:刚开始以为是传参活着内存释放的问题,又深入研究了python,用了很多del、gc.collect()语句,发现内存释放不掉,还是随着训练过程逐渐增长最终解决:因为是把两个代码的方法往一个整,又看了源码,看到源代码过网络的时候用了with torch.no_grad()这个语句,就
到底了







