logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python 一个.py文件如何调用另一个.py文件中的类和函数

1、HelloWorld  文件名称  Hello是类from HelloWorld import Hello>>> h = Hello()>>> h.hello()Hello, world  # 输出结果HelloWorld.py文件内容class Hello(object):  def hello(self,

vs2010中Calendar控件的一些使用

一.返回指定日期前后的某一日期;// Sets a DateTime to April 3, 2002 of the Gregorian calendar.      DateTime myDT = new DateTime( 2002, 4, 3, new GregorianCalendar() );      // Uses the default calendar of

Android 项目中文件夹的作用

Android 项目中文件夹的作用  1. src:存放所有的*.java源程序。2. gen:为ADT插件自动生成的代码文件保存路径,里面的R.java将保存所有的资源ID。3. assets:可以存放项目一些较大的资源文件,例如:图片、音乐、字体等。4. res:可以存放项目中所有的资源文件,例如:图片(*.png、*.jpg)、文本

#android
深度学习-超参数和交叉验证

1.什么是超参数没接触过机器学习的人可能对这个概念比较模糊。我们可以从两方面来理解(1)参数值的产生由来超参数是在开始学习过程之前设置值的参数(人为设置),而不是通过训练得到的参数数据。(2)超参数含义定义关于模型的更高层次的概念,如复杂性或学习能力。不能直接从标准模型培训过程中的数据中学习,需要预先定义。可以通过设置不同的值,训练不同的模型和选择更好的测试值来决定(3)举例超参数的一些示例:树的

图像处理中的卷积与模板

图像处理中的卷积与模板1.使用模板处理图像相关概念:           模板:矩阵方块,其数学含义是一种卷积运算。  卷积运算:可看作是加权求和的过程,使用到的图像区域中的每个像素分别与卷积核(权矩阵)的每个元素对应相乘,所有乘积之和作为区域中心像素的新值。     卷积核:卷积时使用到的权,用一个矩阵表示,该矩阵与使用的图像区域大小相同,其行、列都是奇数

#图像处理
CNN笔记:通俗理解卷积神经网络--理解不同输入通道和卷积核通道关系(红色部分)

1 前言2012年我在北京组织过8期machine learning读书会,那时“机器学习”非常火,很多人都对其抱有巨大的热情。当我2013年再次来到北京时,有一个词似乎比“机器学习”更火,那就是“深度学习”。本文内写过一些机器学习相关的文章,但上一篇技术文章“LDA主题模型”还是写于2014年11月份,毕竟自2015年开始创业做在线教育后,太多的杂事、琐碎事,让我一直想再写点技术性文章但每每恨时

线性映射和线性变换的区别

线性映射(linear map),是从一个向量空间V到另一个向量空间W的映射且保持加法运算和数量乘法运算。线性映射总是把线性子空间变为线性子空间,但是维数可能降低。而线性变换(linear transformation)是线性空间V到其自身的线性映射    线性空间V到自身的映射通常称为V上的一个变换。    同时具有以下定义:    线性空间V上的一个变换A称为线性变换,如果对于V中任意的元素α

python包的管理(添加的3种方式 删除包)

管理包conda安装和管理python包非常方便,可以在指定的python环境中安装包,且自动安装所需要的依赖包,避免了很多拓展包冲突兼容问题。不建议使用easy_install安装包。大部分包都可以使用conda安装,无法使用conda和anaconda.org安装的包可以通过pip命令安装使用合适的源可以提升安装的速度查看已安装包使用这条命令来查看哪个版本的pyth

#python
分类和回归的区别和联系

先简单的说下吧,下面给出实际例子类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少度,这是一个回归任务;预测明天是阴、晴还是雨,就是一个分类任务。 拿支持向量机举个例子,分类问题和回归问题都要根据训练样本找到一个实值函数g(x)。回归问题的要求是:给

如何理解K-L散度(相对熵)

Kullback-Leibler Divergence,即K-L散度,是一种量化两种概率分布P和Q之间差异的方式,又叫相对熵。在概率学和统计学上,我们经常会使用一种更简单的、近似的分布来替代观察数据或太复杂的分布。K-L散度能帮助我们度量使用一个分布来近似另一个分布时所损失的信息。K-L散度定义见文末附录1。另外在附录5中解释了为什么在深度学习中,训练模型时使用的是Cross Entropy...

    共 73 条
  • 1
  • 2
  • 3
  • 8
  • 请选择