logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Python 解决控制台输出颜色 (windows平台)

原文地址简介在python开发的过程中,经常会遇到需要打印各种信息。海量的信息堆砌在控制台中,就会导致信息都混在一起,降低了重要信息的可读性。这时候,如果能给重要的信息加上字体颜色,那么就会更加方便用户阅读了。当然了,控制台的展示效果有限,并不能像前段一样炫酷,只能做一些简单的设置。不过站在可读性的角度来看,已经好很多了。语法格式:\033[显示方式;前景色;背景色m前景色背景色颜色-------

#python
python的io模块

open函数是一个工厂函数。根据传入的变量,open函数会进行文件的开启、文件对象的创建与设定,然后返回文件对象。我们来看一下指定不同变量时,open函数具体为我们返回了什么类型的文件对象呢:>>> open('Documents/me.txt')<_io.TextIOWrapper name='Documents/me.txt' mode='r' encoding='cp

#python
深度学习中number of training epochs中的,epoch到底指什么?

首先复习下神经网络的概念。神经网络由一些相互链接的“神经元”组成。每个“神经元”有相应的权重。神经网络的神奇之处就在于权重是通过训练自动得出的。所谓训练,就是让神经网络在训练数据集上跑一遍,看看损失函数的值怎么样。如果损失函数的值足够小,小到符合我们的需求,那就说明神经网络拟合得很好了,训练大功告成了(实际上并非如此,因为仅仅知道拟合得很好并不够,我们还要知道神经网络是不是拟合得太好了,也就是过拟

#神经网络#深度学习#机器学习
卷积神经网络的卷积核大小如何确定

上左图:假设卷积核(又叫filter,neuron)是3*3,第一层卷积核的中心pixel,可以“看到”(receptive field)输入图3*3的区域(这里把它理解成“连通性”),第二层卷积核作用在第一层之上,这个卷积核的中心pixel可以“看到”原图的区域扩大成5*5。结论:几个小的卷积核(例如3*3)叠加(stack)在一起,相比一个大的卷积核(例如7*7),与原图的连通性不变,但是却大

#神经网络#人工智能#计算机视觉
深度学习中number of training epochs中的,epoch到底指什么?

首先复习下神经网络的概念。神经网络由一些相互链接的“神经元”组成。每个“神经元”有相应的权重。神经网络的神奇之处就在于权重是通过训练自动得出的。所谓训练,就是让神经网络在训练数据集上跑一遍,看看损失函数的值怎么样。如果损失函数的值足够小,小到符合我们的需求,那就说明神经网络拟合得很好了,训练大功告成了(实际上并非如此,因为仅仅知道拟合得很好并不够,我们还要知道神经网络是不是拟合得太好了,也就是过拟

#神经网络#深度学习#机器学习
图像的上采样与下采样

上采样:别名:放大图像,也叫图像插值。目的:放大原图,从而可以显示在更高分辨率的显示设备上。缺点:会对图像的质量造成影响,并没有带来更多的信息。方法:内插值。插值方法有很多,比如均值,中值,最近邻。通过这种方法,在周围像素色彩的基础上用数学公式计算丢失像素的色彩。反卷积。即通过转置卷积核的方法来实现卷积的逆过程。反池化。在池化过程,比如max-pooling时,要记录下每个元素对应kernel中的

#opencv#计算机视觉
深度学习中number of training epochs中的,epoch到底指什么?

首先复习下神经网络的概念。神经网络由一些相互链接的“神经元”组成。每个“神经元”有相应的权重。神经网络的神奇之处就在于权重是通过训练自动得出的。所谓训练,就是让神经网络在训练数据集上跑一遍,看看损失函数的值怎么样。如果损失函数的值足够小,小到符合我们的需求,那就说明神经网络拟合得很好了,训练大功告成了(实际上并非如此,因为仅仅知道拟合得很好并不够,我们还要知道神经网络是不是拟合得太好了,也就是过拟

#神经网络#深度学习#机器学习
深度学习中number of training epochs中的,epoch到底指什么?

首先复习下神经网络的概念。神经网络由一些相互链接的“神经元”组成。每个“神经元”有相应的权重。神经网络的神奇之处就在于权重是通过训练自动得出的。所谓训练,就是让神经网络在训练数据集上跑一遍,看看损失函数的值怎么样。如果损失函数的值足够小,小到符合我们的需求,那就说明神经网络拟合得很好了,训练大功告成了(实际上并非如此,因为仅仅知道拟合得很好并不够,我们还要知道神经网络是不是拟合得太好了,也就是过拟

#神经网络#深度学习#机器学习
梯度的方向与等高线切线方向垂直

这里一直隐含了一个东西,梯度也是向量(由z函数在某具体点对各个变量求偏导组成)它也是有方向的,当L射线与此时梯度方向一致时,方向导数达到最大值,也就是梯度的模。换句话说,在某个具体点上,梯度方向永远是函数上升最陡峭的方向,但是梯度的方向该如何计算呢?当单位向量的方向与梯度向量方向一致时(也就是单位向量与梯度向量的夹角θ为0°角时),z函数在某点L方向的方向导数达到最大值,最大值就是梯度的值(模)。

#python#算法#机器学习
    共 38 条
  • 1
  • 2
  • 3
  • 4
  • 请选择