logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【数据结构】NOJ002—线性表的就地逆置

题目简述:解析:(1)数组的就地逆置使用一个临时变量两两进行交换即可;(2)链表的就地逆置可以直接使用头插法建立链表;重点:(1)链表的头插法和尾插法;(2)链表的前插入和后插入方法(上篇博客);代码:其实此处逆置数组和链表时,可以在输入数字的时候直接输入一个令其等于a[n-i]就可以原地逆置数组,但我还是单独写出来逆置,并且将链表逆置也单独写了一个函数。#include <iostream

#数据结构#c++#算法 +1
【数据结构】NOJ012—以三元组表为存储结构实现矩阵相加

问题描述:解析:创建一个结构体,里边包含row,col和value三个变量,表示value处在row行col列中。输入得到两个稀疏矩阵A和B。同时遍历A和B,首先比较行号,行号靠前的先加入C;其次(即行号相同时)比较列号,列号靠前的先加入C。行号列号相同,就把对应元素相加,加入C。这样解决了:(1)按顺序进入C表并顺序输出的过程;(2)保证时间复杂度仅为max(m, n),而不必两层循环;重点:关

#数据结构#c++
【数据结构】NOJ003—顺序表的删除

题目简述:解析:首先能想到的是,找出A和B中所有重复的元素,然后遍历C删去。但这种方法的时间复杂度是O(mn),即双层遍历A和B所有元素。结合题意,给出的A和B都是递增有序的表,则可以同时遍历,然后根据当前数据大小一起移动指针,这样时间复杂度只有O( max(m, n) )。重点:掌握遍历有序表的更快速的方法。代码:#include <iostream>using namespace

#数据结构#c++#链表 +1
【CNN实战】001:基于Minist数据集的手写数字识别

此处摘录一个简单的CNN实例。例子利用Minist数据集,利用两个卷积层(+两个池化层)和全连接层实现了手写数字照片的识别。原图reshape为28*28的照片输入。第一层:卷积层。32个5*5的卷积核,输入为28*28(*1)的照片,输出为28*28*32的照片,也就是把一张照片弄成大小不变的32张照片,1->32实际上是厚度,也就是通道数变了;第二层:池化层。2*2的池化区域,上下步数为

#神经网络#tensorflow#深度学习 +1
【网络流量识别】【聚类】【三】自适应密度FCM和自适应权重K-Means

第一篇:自适应密度的模糊聚类地址:使用基于自适应密度的模糊聚类|进行网络流量异常检测IEEE 会议出版物|伊 · X普洛尔(一)文章内容概述本篇文章针对径向FCM在分析中不利用空间信息而不准确的情况下,提出了一种自适应模糊聚类技术。即在成员分簇的计算时同时考虑距离,密度和数据实例密度变化的趋势。同时,引入自适应阈值加快迭代过程。从企业网络中自己采集真实的网络数据流量,采用PCA进行特征提取,提取出

#机器学习#人工智能#算法
【神经网络】学习笔记十七——IRNN:初始化矩阵RNN

首先对IRNN进行了总的简要介绍,后面进行了原理剖析和为什么引进了IRNN,以及最后总结了它的优点和特点。目录一、说在前面1. 传统RNN的问题2. IRNN做出的改变3. 提出的IRNN的重点二、引入:传统RNN存在的问题1. 传统RNN存在的问题2. 改进的LSTM和GRU的问题3. IRNN的引入总结一、说在前面IRNN(Identity Matrix RNN),初始化RNN,即初始化矩阵循

#神经网络#深度学习#rnn
【神经网络】学习笔记十—RNN实例1:时间序列sin曲线预测cos曲线

显然RNN是预测时间序列的,即前后文有关的一些预测,即在时间排列的基础上前后变量变化相关的预测。本文根据sin曲线规律预测cos曲线规律。偷摸说一句,还有一篇博客写RNN(实际上是LSTM)识别手写照片,,,,不能理解,咋还能识别那个东西,一个手写数字照片,很明显每个照片28*28的像素点没有联系嘛真的是,,奇奇怪怪,非要乱来,置我CNN大法于何地。呸好进入正题。首先解释一下里面的一些东西。首先这

#神经网络#深度学习#python
【神经网络】学习笔记二—神经网络基本组成

本篇简单说一下几个层,具体的详见本系列其他博文。1. 池化层Pooling池化层是当前卷积神经网络CNN中常用组件之一。池化层模仿人的视觉系统对数据进行降维,用更高层次的特征表示图像。池化层以降低特征图的参数量来降低信息冗余,提升计算速度,增加感受野,以提升模型的尺度不变性,旋转不变性,是一种降采样操作。使得模型更关注全局特征而非局部出现的位置,这种降维的过程中可以保留一些重要的特征信息,提升容错

【神经网络】学习笔记三—LSTM简介篇

1. RNN和LSTM结构对比RNN:LSTM:其中的符号:注意:上面的四个黄框,每一个都是普通的神经网络,激活函数就是上面标注的。通过对比可以看出,RNN的一个cell中只有一个神经网络,而LSTM的一个cell中有4个神经网络,故一个LSTM cell的参数是一个RNN cell参数的四倍。从上图也可以看出,原来的一个RNN cell只需要存储一个隐藏层状态h,而一个LSTM cell需要存储

#深度学习#神经网络#lstm
【神经网络】学习笔记九—学习率浅析

一、什么是学习率(Learning rate)学习率(Learning rate)作为监督学习以及深度学习中重要的超参数,其决定着目标函数是否能收敛到局部最小值以及何时收敛到最小值。合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。它指导我们在梯度下降法中,如何使用损失函数的梯度调整网络权重的超参数。调整权重公式如下:new_weight = old_weight - learning_r

#神经网络#深度学习
    共 41 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择