logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

计算机视觉-滤波处理和形态学处理

图像滤波是指尽量保留图像细节特征的情况下对目标图像的噪声进行抑制。其目的有二:提取对象特征作为图像识别的特征模式和消除图像数字化过程中混入的噪声。消除图像中的噪声成分叫做图像的平滑化或滤波操作。信号或图像的能量大部分集中于幅度谱的低频和中频段,而在高频段,有用的信息经常被噪声淹没。故,能够降低噪声影响的滤波器的工作原理是降低高频成分幅度。滤波是将信号中特定波段频率滤除的操作。结合滤波器的工作原理,

训练神经网络时如何确定batch size?

前言当我们要训练一个已经写好的神经网络时,我们就要直面诸多的超参数了。这些超参数一旦选不好,那么很有可能让神经网络跑的还不如感知机。因此在面对神经网络这种容量很大的model前,是很有必要深刻的理解一下各个超参数的意义及其对model的影响的。回顾简单回顾一下神经网络的一次迭代过程:即,首先选择n个样本组成一个batch,然后将batch丢进神经网络,得到输出结果。再将输出结果...

【opencv-python】视频处理(5) cv2.VideoCapture.grab()函数、cv2.VideoCapture.retrieve()函数

【opencv-python】视频处理(5)一、cv2.VideoCapture.grab()函数二、cv2.VideoCapture.retrieve()函数三、与cv2.VideoCapture.read()函数的联系1.联系2.示例一、cv2.VideoCapture.grab()函数函数cv2.VideoCapture.grab()用来指向下一帧,其语法格式为:retval = cv2.V

关于学术论文投稿中的 Cover Letter

  学术期刊报道原始研究工作的论文,一般分为需要快速发表的通信、快报类(communication, letter等)和报道系统研究工作的全文类(full paper, article)两种形式。投这两种文章,cover letter和论文Introduction的写法是不同的。    对于需要以通讯或快报形式快速发表的工作,可以是初步的研究结果(preliminary result),强调的是工

向量点乘(内积)和叉乘(外积、向量积)概念及几何意义解读

向量是由n个实数组成的一个n行1列(n*1)或一个1行n列(1*n)的有序数组;向量的点乘,也叫向量的内积、数量积,对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,点乘的结果是一个标量。点乘公式对于向量a和向量b:                                                           a和b的点积公式为:要求一维向量a和向量b的行

直线方程的点斜式、两点式、斜截式的公式是什么

(一)点斜式已知直线l的斜率是k,并且经过点P1(x1,y1)直线方程是y-y1=k(x-x1)但要注意两个特例:a 当直线的斜率为0°时直线的方程是y=y1b当直线的斜率为90°时,直线的斜率不存在,直线方程是x=x1.(二)两点式:已知直线l上的两点P1(x1,y1)、P2(x2,y2),(x1≠x2)直线方程是(y-y1)/(y2-y1)=(x-x1)/(x2-x1)

常用数学符号的 LaTeX 表示方法

常用数学符号的 LaTeX 表示方法(以下内容主要摘自“一份不太简短的 LATEX2e 介绍”)1、指数和下标可以用^和_后加相应字符来实现。比如:2、平方根(square root)的输入命令为:\sqrt,n 次方根相应地为: \sqrt[n]。方根符号的大小由LATEX自动加以调整。也可用\surd 仅给出符号。比如:3、命令\overline 和\underli

神经网络权值为什么不能初始化为零(1)

写在前面:该篇文章的内容以及相关代码(代码在最后),都是我亲自手敲出来的,相关结论分析也是花了挺长时间做出来的,如需转载该文章,请务必先联系我,在后台留言即可。在深度学习中,神经网络的权重初始化方式非常重要,其对模型的收敛速度和性能有着较大的影响。一个好的权值初始值有以下优点:梯度下降的收敛速度较快深度神经中的网络模型不易陷入梯度消失或梯度爆炸问题该系列共两篇文章,我们主要讨论以下两...

优化基于FPGA的深度卷积神经网络的加速器设计

优化基于FPGA的深度卷积神经网络的加速器设计翻译 2015年08月27日08:16:24标签:CNN /FPGA /加速器 /HLS8359英文论文链接:http://cadlab.cs.ucla.edu/~cong/slides/fpga2015_chen.pdf翻译:卜居转载请注明出处:http://blog.cs

最小二乘法,笔记

前言        普通最小二乘法(ordinary least squares, OLS)是线性回归预测问题中一个很重要的概念,在 Introductory Econometrics A Modern Approach (Fourth Edition) 第2章 简单回归模型 中,花了很详细的篇幅对此作出介绍。应聘数据挖掘岗位,就有考到对普通最小二乘法的推导证明。最小二乘法十分有用,例如可以用来做

    共 48 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择