
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1、熵熵:熵,热力学中表征物质状态的参量之一,用符号S表示,其物理意义是体系混乱程度的度量。从统计的角度来看,概率分布是对随机变量的刻画,而熵就是对不同概率分布的刻画!本质上,熵是为了描述不确定的程度,并以此对不同的概率分布进行比较。举个例子,两枚硬币,一个上抛一次正面朝上概率是0.5,另一个是0.8,此时,假设两枚硬币上抛一次落下后朝上的面分别是x,y。此时,我们可以很容易确定随机变量x,y的概
1、熵熵:熵,热力学中表征物质状态的参量之一,用符号S表示,其物理意义是体系混乱程度的度量。从统计的角度来看,概率分布是对随机变量的刻画,而熵就是对不同概率分布的刻画!本质上,熵是为了描述不确定的程度,并以此对不同的概率分布进行比较。举个例子,两枚硬币,一个上抛一次正面朝上概率是0.5,另一个是0.8,此时,假设两枚硬币上抛一次落下后朝上的面分别是x,y。此时,我们可以很容易确定随机变量x,y的概
主成分分析(Principal components analysis,以下简称PCA)是最重要的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。一般我们提到降维最容易想到的算法就是PCA,下面我们就对PCA的原理做一个总结。1. PCA的思想PCA顾名思义,就是找出数据里最主要的方面,用数据里最主要的方面来代替原始数据。具体的,假如我们的数据集是nnn维的,共有mmm个数据(
CRNN详解:https://blog.csdn.net/bestrivern/article/details/91050960https://www.cnblogs.com/skyfsm/p/10335717.html1 概述传统的OCR识别过程分为两步:单字切割和分类任务。现在更流行的是基于深度学习的端到端的文字识别,即我们不需要显式加入文字切割这个环节,而是将文字识别转化为序列学习问题,虽然
RCNN (论文:Rich feature hierarchies for accurate object detection and semantic segmentation) 是将CNN方法引入目标检测领域, 大大提高了目标检测效果,可以说改变了目标检测领域的主要研究思路RCNNhttps://github.com/rbgirshick/rcnnFast RCNNhttps://github
一、VOC数据集简介PASCAL VOC 挑战赛主要有 Object Classification 、Object Detection、Object Segmentation、Human Layout、Action Classification这几类子任务。PASCAL VOC 2007 和 2012 数据集总共分 4 个大类:vehicle、household、animal、person,总共
这一章开始,我们将进入到Guassian Mixture Model (GMM) 的学习。而为什么要学习GMM 呢?这是因为单峰分布已经不能准备的反映数据的分布了。正如下面的一个分布:对于如上的数据分布来说,如果强行用单峰的Guassian Distribution 来表示这个分布,显然是可以的。但是,很明显是不合适的。会造成较大的误差,不能较好的表示整个数据的分布特征。1 模型介绍1.1 从几何
场景描述类别型特征(Categorical Feature)是指反映(事物)类别的数据,是离散数据,其数值个数(分类属性)有限(但可能很多),比如性别(男、女)、血型(A、B、AB、O)等只在有限选项内取值的特征。类别型特征原始输入通常是字符串形式,除了决策树等少数模型能直接处理字符串形式的输入,对于逻辑回归、支持向量机等模型来说,类别型特征必须经过处理转换成数值型特征才能正确工作。(连续变量:在
我的pycharm设置成中文了,第一步:File(文件) ->Settings(设置)第二步:Editor (编辑器)-> File and Code Templates(文件和代码模板) -> Python Script,复制下面的内容后,不要忘记勾选上启用代码模板。#!/usr/bin/env python# -*- coding: utf-8 -*-# @Time: ${D
支撑向量机(SVM)算法在分类问题中有着重要地位,其主要思想是最大化两类之间的间隔。按照数据集的特点:线性可分问题,如之前的感知机算法处理的问题线性可分,只有一点点错误点,如感知机算法发展出来的 Pocket 算法处理的问题非线性问题,完全不可分,如在感知机问题发展出来的多层感知机和深度学习这三种情况对于 SVM 分别有下面三种处理手段:hard-margin SVMsoft-margin SVM







