logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

神经网络之激活函数(Sigmoid, Tanh, ReLU, Leaky ReLU, Softmax)

1、激活函数激活函数是神经网络中输出值处理的一个函数。通过激活函数,神经网络能训练更为复杂的数据。上图所示为神经网络的一个神经元,若net=∑i=0nwixinet=\sum_{i=0}^{n}w_ix_inet=∑i=0n​wi​xi​没有经过激活函数的处理,则神经网络只能训练线性关系的数据,若使用激活函数处理,则可以根据激活函数的不同训练不同类型的数据。激活函数分为两种类型:线性激活函数和非线

#神经网络#深度学习#人工智能
机器学习之理解决策树

决策树(Decision Tree)是一种非参数的有监督学习方法,它能够从一系列有特征和标签的数据中总结出决策规 则,并用树状图的结构来呈现这些规则,以解决分类和回归问题。决策树的基本算法如下图(图来源于周志华的《机器学习》74页):算法的核心在于如何选择最优划分属性,即算法中的第8行。sklearn中的决策树模块提供了两种方式:信息熵和基尼系数。决策树算法的核心是解决两个问题:如何从数据表中找出

#机器学习#决策树
机器学习之理解聚类

第六章聚类决策树、随机森林、逻辑回归都属于“有监督学习”。聚类属于“无监督学习”,其作用就是将数据划分成有意义或有用的簇。聚类的应用:对客户信息进行分类,以实现精准营销。可以用于降维和矢量量化(vector quantization)常常用于图像、声音、视频等非结构化数据的压缩。聚类和分类的区别:分类是训练数据有标签,新来一个数据判断属于哪一类。聚类是训练数据没有标签,通过聚类算法将数据集聚成k类

#机器学习
深度学习之GRU学习笔记

在之前几篇深度学习文章中转载了FC、CNN、RNN、LSTM。其中LSTM的变体GRU只是简单提了一点点。本文重新整理了一些资料详细剖析GRU的单元门控逻辑,并结合论文《Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling》分析LSTM和GRU的异同点。GRU(Gate Recurrent Unit

#深度学习#神经网络
pytorch的vgg19的预训练模型提取图片特征

vgg提取图像特征,同一张图像两次运行vgg输出不同的结果。

#pytorch#深度学习
机器学习之理解xgboost模型

xgboost是boosting算法的一种,其主要思想就是基于弱分类器集成在一起形成强分类器。训练时从一棵树开始直到k棵树,而最终预测的结果是:yi^=Ø(xi)=∑k=1Kfk(xi),fk∈ϝ\hat{y_i}=\text{\O}(x_i)=\sum_{k=1}^{K}f_k(x_i), f_k \in \digammayi​^​=Ø(xi​)=k=1∑K​fk​(xi​),fk​∈ϝ其中ϝ=

#机器学习
深度学习之循环神经网络(RNN)

本文转自《零基础入门深度学习》系列文章,阅读原文请移步这里一、语言模型RNN是在自然语言处理领域中最先被用起来的,比如,RNN可以为语言模型来建模。那么,什么是语言模型呢?我们可以和电脑玩一个游戏,我们写出一个句子前面的一些词,然后,让电脑帮我们写下接下来的一个词。比如下面这句:我昨天上学迟到了,老师批评了____。我们给电脑展示了这句话前面这些词,然后,让电脑写下接下来的一个词。在这个例子中,接

#神经网络#人工智能
TensorFlow构建模型二

概要本文利用tensorflow构建文本分类模型,数据集使用的是IMDB电影评论文本【数据集地址】,模型主要有四层:模型构建导入所需要的库,以及下载数据集。import matplotlib.pyplot as pltimport osimport reimport shutilimport stringimport tensorflow as tffrom tensorflow.keras im

TensorFlow构建模型(图片数据加载)六

本文内容来源于TensorFlow教程本文主要介绍了三种图片数据的加载和预处理方法:使用高级的Keras预处理工具(如tf.keras.utils.image_dataset_from_directory)和预处理层(如tf.keras.layers.Rescaling)从磁盘的图片目录中加载数据。使用tf.data的框架写你自己的输入通道。在TensorFlow Datasets中从可用的类别加

模型训练中的过拟合\欠拟合

过拟合的如何产生的?过拟合的解决办法欠拟合如何产生的?欠拟合的解决办法

#机器学习
    共 36 条
  • 1
  • 2
  • 3
  • 4
  • 请选择