logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

idea 代码push 到github仓库时报错remote: No anonymous write access.

问题Push failedInvocation failed Server returned invalid Response.java.lang.RuntimeException: Invocation failed Server returned invalid Response.at org.jetbrains.git4idea.http.GitAskPassXml...

Feign 的单元测试

对于feign 的单元测试 主要引入RibbonAutoConfiguration.classFeignRibbonClientAutoConfiguration.class,FeignAutoConfiguration.class

分布式文件系统-概述(1)

什么是分布式文件系统随着文件数据的越来越多,通过tomcat或nginx虚拟化的静态资源文件在单一的一个服务器节点内是存不下的,如果用多个节点来存储也可以,但是不利于管理和维护,所以我们需要一个系统来管理多台计算机节点上的文件数据,这就是分布式文件系统。分布式文件系统是一个允许文件通过网络在多台节点上分享的文件系统,多台计算机节点共同组成一个整体,为更多的用户提供分享文件和存储空间。比如常见的网盘

AI-02a5a8.神经网络-与学习相关的技巧-超参数的验证

神经网络中,除了权重和偏置等参数,超参数(hyper-parameter)也经常出现。这里所说的超参数是指,比如各层的神经元数量、batch大小、参数更新时的学习率或权值衰减等。如果这些超参数没有设置合适的值,模型的性能就会很差。虽然超参数的取值非常重要,但是在决定超参数的过程中一般会伴随很多的试错。

文章图片
#人工智能#神经网络#学习
AI-03a3.Python深度学习-神经网络入门-多分类问题

这个主题分类问题与前面的影评分类问题类似,二者都是对简短的文本片段进行分类。但这个问题有一个新的限制条件:输出类别从 2 个变成 46 个。输出空间的维度要大得多。])

#python#深度学习#tensorflow
AI-03a2.Python深度学习-神经网络入门-二分类问题示例

数据集被分为 25 000 条用于训练的评论与 25 000 条用于测试的评论,训练集和测试集都包含 50% 的正面评论与 50% 的负面评论。如果面对的是一个二分类问题,模型输出是一个概率值(模型最后一层只有一个单元并使用 sigmoid 激活函数),所以最好使用 binary_crossentropy(二元交叉熵)损失函数。查看结果,可以发现 训练损失每轮都在减小,训练精度每轮都在提高。但随后

#人工智能#深度学习#神经网络
AI-03a1.Python深度学习-Tensorflow和Keras入门

Numpy 数组和 Tensorflow 张量的不同:NumPy 数组是可赋值的, TensorFlow 张量是不可赋值的。

#人工智能#深度学习#tensorflow
AI-02a5a6.神经网络-与学习相关的技巧-批量归一化

有什么优点呢?可以使学习快速进行(可以增大学习率)。不那么依赖初始值(对于初始值不用那么神经质)。抑制过拟合(降低Dropout等的必要性)向神经网络中插入对数据分布进行正规化的层,即Batch Normalization层。式(6.7),μB←1m∑i1mxiσB2←1m∑i1mxi−μB2xi←xi−μBσB2ϵμB​σB2​xi​​←m1​i1∑m​xi​←m1。

文章图片
#人工智能#神经网络#学习
AI-02a5a4.神经网络-与学习相关的技巧-参数更新

以 手 写 数 字 识 别 为 例,比 较 前 面 介 绍 的 SGD、Momentum、AdaGrad、Adam这4种方法,并确认不同的方法在学习进展上有多大程度的差异。一个5层神经网络为对象,其中每层有100个神经元。激活函数使用的是ReLU。结果如下图所示,算法梯度计算方式学习率调整机制核心优势SGD当前梯度固定学习率简单直观,适合凸优化问题动量法当前梯度 + 历史梯度累积固定学习率加速收敛

文章图片
#人工智能#神经网络#学习
AI-02a5a6.神经网络-与学习相关的技巧-批量归一化

有什么优点呢?可以使学习快速进行(可以增大学习率)。不那么依赖初始值(对于初始值不用那么神经质)。抑制过拟合(降低Dropout等的必要性)向神经网络中插入对数据分布进行正规化的层,即Batch Normalization层。式(6.7),μB←1m∑i1mxiσB2←1m∑i1mxi−μB2xi←xi−μBσB2ϵμB​σB2​xi​​←m1​i1∑m​xi​←m1。

文章图片
#人工智能#神经网络#学习
    共 27 条
  • 1
  • 2
  • 3
  • 请选择