logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【论文阅读】Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huff

原论文是:《 Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman coding》本博客是该论文的阅读笔记,不免有很多细节不对之处。还望各位看官能够见谅,欢迎批评指正。更多相关博客请猛戳:http://blog.csdn.net/cy

#深度学习
NVIDIA Jetson TK1学习与开发——简介(针对嵌入式系统应用释放 GPU 的潜能)

NVIDIA Jetson TK1 开发者套件为您提供所需的一切,针对嵌入式系统应用释放 GPU 的潜能。它以革命性的NVIDIA Tegra® K1 SoC 为基础构建,并且使用相同的NVIDIA Kepler™ 计算核心,该核心专为全世界的超级计算机而设计。这为您提供了一款全功能NVIDIA CUDA® 平台,用于快速开发和部署面向计算机视觉、机器人技术、医疗和更多领域的计算密集型

CNN中感受野的计算

感受野(receptive field)是怎样一个东西呢,从CNN可视化的角度来讲,就是输出featuremap某个节点的响应对应的输入图像的区域就是感受野。在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通

深度学习解决局部极值和梯度消失问题方法简析

多层感知机解决了之前无法模拟异或逻辑的缺陷,同时更多的层数也让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。多层感知机给我们带来的启示是,神经网络的层数直接决定了它对现实的刻画能力——利用每层更少的神经元拟合更加复杂的函数。但是随着神经网络层数的加深,优化函数越来越容易陷入局部最优解(即过拟合,在训练样本上有很好的拟

#深度学习
提升深度学习模型的表现的实用技巧

你可以怎样让你的深度学习模型实现更好的表现?这是一个我常被问到的问题:「我该怎么提升准确度?」或者「如果我的神经网络表现很糟糕我该怎么办?」……我常常给出的回答是:「我也不完全知道,但我有很多想法。」然后我开始列出所有我可以想到的可能能够带来效果改进的想法。我将这些想法汇集到了这篇博客中,这些想法不仅能在机器学习上为你提供帮助,而且实际上

#深度学习
Ubuntu 16.04 安装 破解版的PyCharm

下面开始教程先在PyCharm官网下载安装包链接:https://www.jetbrains.com/pycharm/download/#section=linux选择的是Professional专业版,直接点击DOWNLOAD下载就行了右键安装包,点击“Extract Here”意思是提取到这里,相当于解压 一 . 1.修改hosts文件:添加下面一行到hosts文件,...

#pycharm
[王晓刚]深度学习在图像识别中的研究进展与展望

深度学习是近十年来人工智能领域取得的最重要的突破之一。它在语音识别、自然语言处理、计算机视觉、图像与视频分析、多媒体等诸多领域都取得了巨大成功。本文将重点介绍深度学习在物体识别、物体检测、视频分析的最新研究进展,并探讨其发展趋势。1. 深度学习发展历史的回顾现有的深度学习模型属于神经网络。神经网络的历史可追述到上世纪四十年代,曾经在八九十年代流行。神经网络试图通过模拟大脑认知的机理

#深度学习
增强学习、增量学习、迁移学习——概念性认知

一、增强学习/强化学习(Reinforcement Learning )二、增量学习(Incremental learning)三、迁移学习(Transfer Learning)

#迁移学习
深度学习解决局部极值和梯度消失问题方法简析

多层感知机解决了之前无法模拟异或逻辑的缺陷,同时更多的层数也让网络更能够刻画现实世界中的复杂情形。理论上而言,参数越多的模型复杂度越高,“容量”也就越大,也就意味着它能完成更复杂的学习任务。多层感知机给我们带来的启示是,神经网络的层数直接决定了它对现实的刻画能力——利用每层更少的神经元拟合更加复杂的函数。但是随着神经网络层数的加深,优化函数越来越容易陷入局部最优解(即过拟合,在训练样本上有很好的拟

#深度学习
到底了