
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
基于PCA+SVM的人脸识别算法流程:(1)输入训练数据,数据预处理;(2)进行PCA降维;(3)进行多分类的SVM训练(人脸识别为多分类问题,可分为多个二分类SVM分类器);(4)输入检测数据并利用上一步的训练结果进行分类;(5)计算准确率并显示结果。网上关于PCA用于人脸识别的文章有很多,大家可以参考这篇文章 Matlab PCA+SVM人脸识别(一),我的代码部分是参
我所采用的数据集:MovieLens数据集ml-100k。先进行原理分析,再讲代码实现。基于用户的协同过滤算法主要包括两个步骤:(1)找到和目标用户兴趣相似的用户集合;(2)找到这个集合中的用户喜欢的,且目标用户没有听说过的物品推荐给目标用户。步骤(1)的关键就是计算两个用户的兴趣相似度。给定用户u和用户v,令N(u)表示用户u曾经有过行为的物品集合,令N(v)表示用户v曾经有
一 Hessian矩阵:实值函数f(x)相对于n×1n×1n\times 1实向量x的二阶偏导是一个由m2m2m^2个二阶偏导组成的矩阵(称为Hessian矩阵),定义为:∂2f(x)∂x∂xT=∂∂xT[∂f(x)∂x]∂2f(x)∂x∂xT=∂∂xT[∂f(x)∂x]{\partial ^2f(x)\over \partial x \partial x^T}={\partial \ov...
张量分解系列:张量分解(一):张量分解(一):基础知识张量分解(二):张量分解(二):CP分解张量分解(三):张量分解(三):Tucker分解张量分解(四):张量分解(四):Tensor-train DecompositionTensorizing Neural Network即张量化神经网络,跟一般神经网络的区别是把输入输出,权重,偏置等转换成张量的形式,反向传播同样使用链式法则。这...
当服务器中有多张显卡时可能会出现这个问题。模型参数加载:model_recover = torch.load(args.model_recover_path)报错如下:RuntimeError: CUDA error: out of memory原因:当使用torch.load加载模型参数时,会默认加载在第一块GPU0上,当GPU0没有在使用时,问题不大,但是显存被占满时这时候就加载不了了。解决方
在讲解Tucker分解之前,我们先看一下Tucker分解在三阶张量上的分解形式:Tucker分解(Tucker decomposition)是高阶的主成分分析的一种形式。它将一个张量分解成一个核张量与每一维矩阵的乘积,具体如下:这里A∈RI×P,B∈RJ×Q,A∈RK×RA∈RI×P,B∈RJ×Q,A∈RK×RA\in R^{I\times P},B\in R^{J\times Q...
在讲解Tensor-train Decomposition之前,我们先看一下Tensor-train Decomposition在三阶张量上的分解形式:Tensor-train Decomposition将原来的高维张量分解为多个三维张量的乘积(首尾张量为二维),具体分解形式如下图:Tensor-train Decomposition的参数优化方法为TT-SVD:参考:Tensor-T...
这一篇文章主要讲解CP分解算法(CANDECOMP/PARAFAC decomposition).首先,我们必须明确,CP分解是做了什么工作,目的是想干什么。我来自问自答:CP分解是将一个高维的张量,分解成多个核的和,每个核是由向量的外积组成;通过这样的分解,我们可以大大地降低参数的维度。其实,不止CP分解,其他的张量分解算法都是同个道理,只是所采用的分解方法不同而已。当然,这样的分解...
我们知道,在NLP领域,特别是工业界中,标签数据是很难获得的,很多时候会面临数据量太小的问题,这个时候,文本数据增强可以有效地帮我们缓解这个问题。我本人在今年的科大讯飞AI大赛中也使用了下文提到的一些方法,并提升了5个百分点左右(后续的文章会详细介绍,请持续关注…),可以说效果是相当明显,所以说数据增强方法绝对是值得大家花点时间学习的。本篇文章,我们将介绍常用的文本数据增强方法,并提供相应的参考文
因为版权问题,最近IDE从pycharm改为了vscode(为了连接远程服务器进行debug),在熟悉vscode的过程中,出现了各种问题,因此记录下来。1.如果关掉终端正在运行的代码如上图,点击垃圾箱那里就行。2. 如何进行debug先选中一个要进行debug的py文件,然后按以下3步进行即可进行debug.3. 如何在子目录下进行run/debug首先,要明确一点,vscode在执行Pytho







