logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

自动网络搜索NAS之FBNetV1

为移动设备设计卷积网络挑战巨大,因为设计空间巨大,现有NAS方法在计算上是昂贵的。另外,之前的工作关注降低FLOPs,但是FLOPs并不总是反应真实的延迟。因此基于differentiable neural architecture search(DNAS),采用梯度优化的方法优化卷积结构,避免像以前的方法那样分别枚举和训练各个体系结构。FBNets-B在ImageNet上top-1准确率为74.

#网络#深度学习#神经网络 +1
《Fast End-to-End Trainable Guided Filter》阅读笔记

1. 介绍这篇论文主要是将引导滤波的思想引入到了网络之中,先在小图上进行学习,再通过在引导滤波器上学习针对特定任务的引导图实现对生成小图上采样,最后恢复大图。这种思想在Deep bilateral里面已经使用过,但是这篇论文里生成的大量仿射系数使得速度受到了限制。论文:https://arxiv.org/abs/1803.05619代码:https://github.com/wuhuika...

实时语义分割网络模型-FasterSeg

1. 解决的问题先前的使用NAS搜索出的语义分割模型推理速度还不够快,且搜索空间有限。如果加入了延迟的限制,搜索出的网络容易出现"崩溃"现象:即模型倾向于低延迟但是准确率也会大打折扣。语义分割要求保留细节和丰富的上下文信息。FasterSeg发现了新的、更广泛的搜索空间,集成了多分辨率分支,为了更好地校准高精度和低延迟目标之间的平衡,提出了一种解耦的、细粒度的延迟正则化方法,解决了模型容易"崩溃"

#网络#深度学习#计算机视觉
BSRGAN | 一种针对真实图像退化的盲图像超分模型

1. 摘要众所周知,当图像超分的预假设退化模型与真实图像的退化方式不匹配时,模型的性能会出现性能下降,甚至负面效果现象。尽管已有集中退化模型考虑的额外的影响因素(比如模糊核以及程度),但是它们仍然无法有效覆盖真实图像的多样性退化方式。为解决该问题,本文设计了一种更复杂但实用的退化模型,它包含对模糊、下采样以及噪声退化的随机置换(也就是说每种退化对应多种类型,且顺序会进行随机调整)。具体来说,模糊退

#图像处理
NNI神经网络模型压缩教程

1. NNI简介NNI是微软发布的一款自动机器学习(AutoML)开源项目,对机器学习生命周期的各个环节做了更加全面的支持,包括特征工程、神经网络架构搜索(NAS)、超参调优和模型压缩在内的步骤,你都能使用自动机器学习算法来完成。微软自动深度学习工具 NNI 具备以下优势:支持多种框架:提供基于 Python 的 SDK,支持PyTorch、TensorFlow、scikit-learn、Ligh

模型压缩之知识蒸馏

模型压缩(在保证性能的前提下减少模型的参数量)成为了一个重要的问题,而”模型蒸馏“属于模型压缩的一种方法。

#机器学习#深度学习#人工智能
MD-VQA:视频质量评价算法

在淘宝,每天有亿级的User-Generated Content (UGC) 等非传统广电视频(包括但不限于短视频、直播等)被生产或播放,其存在明确的无参考视频质量评价的需求,用以对视频质量进行实时监控,确保用户体验。因此,大淘宝音视频技术团队自研了一种针对UGC视频的无参考视频质量评价模型 —— MD-VQA(Multi-Dimensional Video Quality Assessment)

文章图片
#音视频#深度学习
pytorch训练图像分类模型,并部署到MNN

1. Pytorch分类器网络# 定义一个简单的分类网络class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()# 三个卷积层用于提取特征# 1 input channel image 90x90, 8 output channel image 44x44self.conv1 = nn.Seque

#pytorch#mnn#深度学习 +1
    共 70 条
  • 1
  • 2
  • 3
  • 7
  • 请选择