
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
base) lmx@lmx-up:~$ sudo docker imagesREPOSITORYTAGIMAGE IDCREATEDSIZEbit:5000/dongm-mask-rcnn-ptlatest1417b43a3ff510 months ago9.13GBhello-world
目前更新部分包括swin的基本setting,基本模块,相对位置坐标理解和部分代码展示。swin 包含了四种setting,依次是tiny,small, base 和 large。可以类比resnet。Swin-b 主体部分网络结构BasicLayer结构展示BasicLayer((blocks): ModuleList((0): SwinTransformerBlock((norm1): Lay
参考两篇博客即可学会。【炼丹技巧】指数移动平均(EMA)的原理及PyTorch实现理解滑动平均(exponential moving average)
使用opencv可视化,保存到本地import cv2单通道可视化cv2.imwrite("x.tiff", x.cpu().numpy()[0,0,...])三通道彩色可视化(PIL读入时)cv2.imwrite("erase_d.tiff", (x2.cpu().numpy()[0,...].transpose(1,2,0)*255)[...,::-1
调试的时候有很多相对路径,所以需要参考当前目录。这里记录当前目录查看方案。debug中:alt+f8print(os.getcwd())
1. 使用Dockerfile1. 下载docker desktop下载docker for windows,这里有个小坑,需要确定是否打开了虚拟化。如果没有,必须重启在BIOS界面打开虚拟化,重启之后就可以启动docker for windows了。2. 更改工作目录一定要注意:先改下docker desktop的setting。不然生成镜像直接爆炸,全都放到C盘。3. 使用Dockerfile
相机内参外参相机内参数是与相机自身特性相关的参数,比如相机的焦距、像素大小等;相机外参数是在世界坐标系中的参数,比如相机的位置、旋转方向等相机标定相机标定的目的是确定相机的一些参数的值。通常,这些参数可以建立定标板确定的三维坐标系和相机图像坐标系的映射关系,换句话说, 你可以用这些参数把一个三维空间中的点映射到图像空间,或者反过来。基础概念● 我们必须移动相机之后,才能估计它的 运动(Motion
最近使用 Pytorch 进行模型训练时,模型在训练到一小部分后程序均被停止。第一次以为是由于机器上其他人的误操作,故而直接重新拉起训练。但第二次程序终止时,发现基本与第一次训练停止的训练 iteration 一致,故而尝试对问题进行定位。问题描述具体而言,在使用 Pytorch 训练时的错误信息类似如下所示:File "/usr/lib/python3.7/runpy.py", line 193
最近使用 Pytorch 进行模型训练时,模型在训练到一小部分后程序均被停止。第一次以为是由于机器上其他人的误操作,故而直接重新拉起训练。但第二次程序终止时,发现基本与第一次训练停止的训练 iteration 一致,故而尝试对问题进行定位。问题描述具体而言,在使用 Pytorch 训练时的错误信息类似如下所示:File "/usr/lib/python3.7/runpy.py", line 193
返回当前进程组的排名torch.distributed.get_rank() # 返回当前进程组的排名







