
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文所用的例子引自《机器学习》,周志华。ID3决策树ID3中的ID,是Iterative Dichotomiser的简称。 ID3是一种经典的基于信息增益的决策树学习算法。信息熵信息熵是度量样本集合纯度最常用的一种指标。假定当前样本集合DDD中第kkk类样本所占的比例为pk(k=1,2,…,∣Y∣)p_k(k=1,2, \ldots,|\mathcal{Y}|)pk(k=1,2,…,∣Y∣),则
FCGF论文阅读笔记0. Abstract从三维点云或者扫描帧中提取出几何特征是许多任务例如配准,场景重建等的第一步。现有的领先的方法都是将low-level的特征作为输入,或者在有限的感受野上提取得到基于patch的特征。本文提出的是一个全卷积几何特征提取网络,名为fully-convolutional geometric features。 通过一个3D的全卷积网络的一次pass,即可得到几何
Conv1d与Conv2d本文分为几个部分来详解Conv2d与Conv1d。主要侧重于Conv2d前言本文记于2020年12月15日,起因是DGCNN中部分卷积使用了二维卷积,部分卷积使用了一维卷积。加之之前对Conv2d与Conv1d属于一种迷迷糊糊的状态,趁着这个机会弄清楚。Conv2d原理(二维卷积层)二维互相关运算互相关运算与卷积运算虽然卷积层得名于卷积(convolution)运算,但所
Affinity Matrixreference: DeepAI, WikipediaWhat is an Affinity Matrix?Affinity Matrix, 也叫做 Similarity Matrix。即关联矩阵,或称为相似度矩阵,是一项重要的统计学技术,是一种基本的统计技术,用于组织一组数据点之间的彼此相似性。相似度(similarity)类似于距离(distance),但它不满
torch.topk语法torch.topk(input, k, dim=None, largest=True, sorted=True, *, out = None)作用返回输入tensorinput中,在给定的维度dim上k个最大的元素。如果dim没有给定,那么选择输入input的最后一维。如果largest = False,那么返回k个最小的元素。返回一个namedtuple类型的元组(va
ndarray的转置(transpose)对于A是由np.ndarray表示的情况:可以直接使用命令A.T。也可以使用命令A.transpose()。A.T 与 A.transpose()对比结论:在默认情况下,两者效果相同,但transpose()可以指定交换的axis维度。对于一维数组,两者均不改变,返回原数组。对于二维数组,默认进行标准的转置操作。对于多维数组A,A.shape为(a,b,c
为什么需要Tensor.contiguous()Tensor.contiguous()作用Returns a contiguous in memory tensor containing the same data as self tensor. If self tensor is already in the specified memory format, this function retu
Matrix Differentiation(矩阵求导)References: Matrix Differentiation,Rabdak J.Barnes注: 本文直接从Matrix Differentiation开始记录,之前的乘法等基础部分不表。Convention 3m维向量对n维向量求导所得的结果是一个mxn矩阵,即Jacobian Matrix。具体形式见上公式。命题5 Proposi
numpy.linalg.norm语法numpy.linalg.norm(x,ord=None,axis=None,keepdims=False)Parametersx: array_likeInput array. If axis is None, x must be 1-D or 2-D, unless ord is None. If both axis and ord are None, t
矩阵的基础知识与公式(转置,逆,迹,行列式)References: MatrixCookBook(Version 2012) Chapter1Chapter1: Basics1 Basics注:AH{A^H}AH是A的Transposed and complex conjugated matrix (Hermitian),即转置复共轭矩阵。1.1 矩阵的迹(Trace)式子(11)表明矩阵的迹是主







