logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

计算机保研记:北京交通大学

这几天纷纷扰扰的毕设事情,把自己搞得很烦。最难受的还是出力没讨好,还花了钱。想写点东西让自己冷静冷静。其实这篇文章去年就应该写了,但是由于一系列事情(主要是懒)一直没有动手,总算有了一点想写的欲望。就一点点来吧。一、前期准备我的本科专业是计算机科学与技术,这个专业啥都学,但啥也学不太深。啥都学是有好处的,我在思考研究生方向的时候纵览本科三年学过的科目,发现唯有一个数字图像处理是当时以及现在都比较感

#经验分享#程序人生
maskrcnn benchmark+win10+pytorch1.4+CUDA10.1安装记录

第一次接触机器学习的代码,老师让跑一个场景图的代码,跑了一个星期没跑出来0^0…场景图的目标检测用的maskrcnn,就想着先单独跑一半吧,结果跑出来了。。。记录一下安装过程。。1.安装Anaconda我安的版本是4.6.14,3.6的python,这里建议如果之前有安装python的先把原来的python卸了,anaconda里自带python环境。之前看别人博客的时候有出现两个python在一

#机器学习#pytorch#经验分享
【转载】scp用法及not a regular file报错解决

【转载】scp用法及not a regular file报错解决

文章图片
#ubuntu#linux#服务器
pytorch报错详解:RuntimeError: Trying to backward through the graph a second time

代码如下,当我尝试对y3进行第二次梯度计算时,报了这个错import torchx = torch.tensor([1], dtype=torch.float32, requires_grad=True)y1 = x ** 2y2 = x ** 3y3 = y1 + y2y3.backward()print(x.grad)x.grad.data.zero_()y3.backward()print(

#pytorch#人工智能#经验分享 +1
pytorch报错详解:RuntimeError: Trying to backward through the graph a second time

代码如下,当我尝试对y3进行第二次梯度计算时,报了这个错import torchx = torch.tensor([1], dtype=torch.float32, requires_grad=True)y1 = x ** 2y2 = x ** 3y3 = y1 + y2y3.backward()print(x.grad)x.grad.data.zero_()y3.backward()print(

#pytorch#人工智能#经验分享 +1
【转载】THC/THC.h: No such file or directory报错解决

【转载】THC/THC.h: No such file or directory报错解决

#python#ubuntu#pytorch +1
哈夫曼树原理、画法和具体例子

好久没画过哈夫曼树了,一做题发现全忘了。。特别记录一下,以一道题的详细解答过程为例。1.哈夫曼压缩原理当各种指令出现的频度不均等时,对出现频度最高的指令用最短的位数表示,出现频度较低的则用较长的位数表示,从而使指令的平均长度缩短。构造哈夫曼树核心思想:最小概率合并。2.构造哈夫曼树具体例子0.2   0.17   0.06&nb...

#霍夫曼树#经验分享
pytorch报错详解:RuntimeError: Trying to backward through the graph a second time

代码如下,当我尝试对y3进行第二次梯度计算时,报了这个错import torchx = torch.tensor([1], dtype=torch.float32, requires_grad=True)y1 = x ** 2y2 = x ** 3y3 = y1 + y2y3.backward()print(x.grad)x.grad.data.zero_()y3.backward()print(

#pytorch#人工智能#经验分享 +1
【转载】Could not set parameters for mapping: ParameterMapping{property=‘s_id‘, mode=IN, javaType=class

解决方案如链接指向大佬博客所示,把xml的所有注释都去掉,即使之前有注释的时候没有报错。

#前端#经验分享
    共 11 条
  • 1
  • 2
  • 请选择