logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

[解决方案记录]No module named fused(stylegan2的bug,已更新)

基本情况运行psp时出现的问题。系统:windows平台:pycharm + jupyter notebookGPU:GTX1660Ti解决方案(1)anaconda环境的CUDA要保证在10.1及以上,否则不能编译成功,这是github上一个老哥说的,具体链接不记得了。conda环境的CUDA版本是根据这个环境下的cudatoollkit控制的,因此在该环境下用torch官网的方法更新cudat

#pytorch#深度学习#python
Pytorch Kaiming 初始化(Initialization)中fan_in和fan_out的区别/应用场景

fan_in如果权重是通过线性层(卷积或全连接)隐性确定的,则需设置mode=fan_in。例子:import torchlinear_layer = torch.nn.Linear(node_in, node_out)init.kaiming_normal_(linear.weight, mode=’fan_in’)output_data = relu(linear_layer(input_da

#python#pytorch
[论文翻译]A 3D Spatial Transformer Network Approach in Unconstrained Poses(人脸识别3D-STN)

0 摘要面部对齐包括在已知语义的图像上找到一组标志点。然而,这种地标点的语义在2D方法中常常丢失,在2D方法中,landmarks要么移动到可见的边界,要么随着人脸姿态的变化而被忽略。为了在大姿态下提取一致的对齐点,在对齐步骤中必须考虑人脸的三维结构。然而,从单个二维图像中提取三维结构通常首先需要对齐。我们提出了一种新的方法,通过三维空间变换网络(3D-STN)同时提取人脸的三维形状和语义上一致的

#人脸识别#计算机视觉#神经网络
chipyard环境下仿真risc-v教程(1):运行chipyard中的默认案例

官网教程:链接步骤(1)按照官网教程安装好chipyardchipyard中已经包含了所需的toolchain和verilator,不用自己再去下载一遍,chipyard网上教程还是蛮多的,官网也有教程,这里暂时不放了。(2)进入verilator目录cd chipyard/sims/verilator(3)编译chipyard中的default examplemake一段时间后,会生成一个叫si

[解决方案记录]No module named fused(stylegan2的bug,已更新)

基本情况运行psp时出现的问题。系统:windows平台:pycharm + jupyter notebookGPU:GTX1660Ti解决方案(1)anaconda环境的CUDA要保证在10.1及以上,否则不能编译成功,这是github上一个老哥说的,具体链接不记得了。conda环境的CUDA版本是根据这个环境下的cudatoollkit控制的,因此在该环境下用torch官网的方法更新cudat

#pytorch#深度学习#python
stylegan中Equallinear, EqualConv和PixelNorm的来源,作用和原理

实际上stylegan是借鉴了PROGRESSIVEGAN 这篇文章。Equallinear和EqualConv的作用和原理:基于linear和conv,通过缩放网络权重,使得每一层的参数的学习率能够保持一致,从而能增强GAN的稳定性,改善图像质量。原文:We deviate from the current trend of careful weight initialization, and

#深度学习
pytorch维度不同的张量(tensor)相加规则

网上没找到,也不知道哪里有“张量加法”的源代码,就自己试了一下,大概有下面的规律。如果有错误,希望大家指正!规律1:如果相加的两个张量维度不一致,那么首先把维度低的那个张量从右边和维度高的张量对齐例如下面的代码,b的维度低一些,所以和a相加的时候b的维度就会先扩充为[1,1,5,6]。a = torch.ones([8, 4, 5, 6])print('a =',a.size())b = torc

#python
pytorch 优化器采取不同学习率

def configure_optimizers(self):params = list(model.named_parameters())def is_backbone(n): return 'bert' in ngrouped_parameters = [{"params": [p for n, p in params if is_backbone(n)], 'lr': args.lr},{"

#pytorch
[论文阅读]Designing an Encoder for StyleGAN Image Manipulation

主要工作:提出什么样的encoder(image->latent code)具有更好的编辑性和更小的失真答案:图片逆映射接近W空间的encoder是好的验证encoder的好坏用到了styleflow等其他论文中的方法1 Abstact & Intro要用利用预训练的stylegan进行图像编辑,需要将图像映射到stylegan的latent space。stylegan的laten

#深度学习#人工智能#pytorch
nn.Linear和kernel=1的nn.Conv的区别

相同点:都是线性运算,可以看成矩阵相乘,感受野都为1不同点:pytorch中初始化方案不同,nn.Conv有更好的初始化速度不同,Linear的速度要比nn.Conv快一个数量级,因为Linear是用高效的矩阵相乘实现的,而Conv是卷积核移动实现的输入尺寸不同,Conv是[batch, input_channel, H, W,…],linear是[batch, …, input_channel]

#pytorch#深度学习#机器学习
    共 16 条
  • 1
  • 2
  • 请选择