
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
部分安卓端ncnn模型推理输出数据存在大量-nan和nan的问题

论文地址:https://arxiv.org/abs/1611.070041 论文概述《Image-to-Image Translation with Conditional Adversarial NetWorks》讲的是如何用条件生成对抗网络实现图像到图像的转换任务。图像、视觉中很多问题都涉及到将一副图像转换为另一幅图像(Image-to-Image Translation Problem),
使用绘制的草图,来控制 GAN 生成图像的形状等特征。具体使用的方法很简单,即用真实图像→草图的 GAN 来微调预训练的噪声→真实图像的 GAN 模型,即草图+预训练网络 G→调整后网络 G',最终实现噪声→带有草图外形特征的真实图像,调整后的网络同时保持预训练网络的生成真实性与多样性,以及输入噪声在原模型中代表的颜色、纹理、背景等特征。Sketch Your Own GAN (peterwang
Abstract最近,Visual Transformer (ViT)及其后续作品放弃了卷积,采用了自注意运算,达到了与CNN相当甚至更高的精度。最近,MLP-Mixer放弃了卷积和自注意操作,提出了一个只包含MLP层的架构。为了实现跨patch communication,在channel-mixing MLP的基础上,设计了一个额外的token-mixing MLP。当在极其大规模的数据集上进
摘要Transformers已经成为深度学习领域最重要的架构创新之一,并在过去几年实现了许多突破。在这里,我们提出了一个简单的无注意(attention-free)的网络架构,gMLP,仅基于mlp与门控,并表明它可以在关键语言和视觉应用领域和Transformers一样好。我们的比较表明,自我关注对vision transformers来说并不重要,因为gMLP可以达到同样的精度。在gMLP表现
MMPose安装相关

论文:https://arxiv.org/pdf/1612.03242.pdf源码:https://github.com/nashory/pggan-pytorch摘要从文字描述中生成具有照片般真实感的图片一直是计算机视觉中具有挑战性的一个课题,并且具有很多的应用。现有方法生成的图片可以粗略的反映出给定的描述,但是缺乏需要的细节和生动的对象局部。本文提出了堆叠生成对抗网络(StackGan),它从
ONNX转NCNN记录

论文:https://arxiv.org/pdf/1710.10196.pdf源码:https://github.com/tkarras/progressive_growing_of_gans摘要我们为生成对抗网络GAN描述了一种新的训练方法。这种新的训练方法的关键思想是渐进的让生成器和判别器增长:从一个低分辨率开始,随着训练发展,我们不断添加新层使模型增加更好的细节。这个方法既加速了训练又使训练