
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
snake是一种主动轮廓模型,笨妞对主动轮廓模型的理解:你先给它一个初始轮廓,模型以初始轮廓为基准逐步迭代,来改进图像的轮廓,使其更加精确。主动轮廓模型目前用到了2种:CV和snake。前者没有看算法内部的原理。而snake,以最原始的论文《Snakes: Active Contour Models》为出发点。1. snake原理snake在逐步迭代优化过程的目标是能量函数最小化,这个能量函数指的
转自http://dataunion.org/20584.html(一)HOG特征1、HOG特征:方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行
标准偏差和标准误差是统计学中的两个变异性估计量。两者只有一字之差,但是所表示的估计含义却很不同。首先,从英文名字来讲,标准偏差是standard deviation,deviation有“离差”的意思,标准偏差表征的是数据的离散程度;而标准误差的英文名是standard error,表征的是单个统计量在多次抽样中呈现出的变异性。可以这样理解,前者是表示数据本身的变异性,而后者表征的是抽样行为的..
作为一个人工智能工作者,虽然经常用人工神经网络,但对生物神经网络并没有多大兴趣,直到半年前,我那年纪并不大的老爹因为高血压发生急性脑梗塞,有一些脑组织被损伤了,我觉得是时候学点脑科知识了。我们习惯把我们的脑称作大脑,人的脑组织中大脑占了很大部分,但也有很多别的部分,例如,小脑、脑干。在关注这块之前,对于笨妞来说,这些总体称为大脑。但是,脑科学界貌似并不这么认为。大脑是人脑的高级进化区域,小脑和脑干
ChatScript做对话系统,做到一定程度后,便遇到了天花板,主要的瓶颈是中文wordnet比较难弄。下面先用word2vec+seq2seq尝试一下,基于机器学习的对话系统。如题,整个程序主要又两部分组成,word2vec将训练语料首先做词向量化,然后,用向量输入到seq2seq中训练。实际上tensorflow本身已经有一个完整的seq2seq模型,可以直接拿来训练,且tf自带的模型
前一篇用doc2vec做文本相似度,模型可以找到输入句子最相似的句子,然而分析大量的语料时,不可能一句一句的输入,语料数据大致怎么分类也不能知晓。于是决定做文本聚类。选择kmeans作为聚类方法。前面doc2vec可以将每个段文本的向量计算出来,然后用kmeans就很好操作了。选择sklearn库中的KMeans类。程序如下:# coding:utf-8import sysi
ChatScript是最近在搜对话系统资料的时候搜到的,貌似现在用得人并不多,能搜到的使用经验很少,不像AIML那样被大家熟知。浅浅的了解了ChatScript(后面简称CS)之后,发现这个对话框架做得挺好的,于是决定用一用它。CS对话框架的底层程序是由c语言实现的,而对话内容、对话逻辑的控制则通过脚本来完成。这样的话,开发新的bot时,可以只编写对话脚本,而不需要改动底层的代码。CS
python3现在越来越流行了,经常拿到python3的代码,但是本人的linux服务器一直是python2.7的。所以经常得改改。这里总结一下2.7运行3的程序时,需要修改的点。python2.7默认是ascii编码的,尽管加上了#coding:utf-8这样的提示,但经常读UTF-8文件时会报编码错误,但python3是不报的。所以,拿到python3的程序,首先加上# encoding=u
这周完全没有想法要看栈式编码器的,谁知误入桃花源,就暂且把栈式自编码器看了吧。由于手上有很多数值型的数据,仅仅是数据,没有标签,所以,迫切需要通过聚类抽出特征。无意间看到别人家公司的推荐系统里面用到sdae,于是,找了个ae程序,建了个sdae,跑一下自己的数据。希望sdae在后面的推荐系统中能有用。啰嗦了那么多,先看看原理吧。http://ufldl.stanford.edu/wiki/in
前面记录了安装过程,现在开始使用词向量。一.对tf的肤浅认识首先是tf的基本总结(时间有限,认识比较肤浅):(1). 使用图来表示计算;(2). 在session中执行图;(3). 使用tensor来表示数据;(4). Variable维护状态(5). 使用feed和fetch可以为任意的操作赋值和获取数据。看起来是不是蛮简单的,但其实用起来不容易(可能本人道行







