logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

数据结构 散列查找 思考题2

全部每周作业和视频思考题答案和解析 见浙江大学 数据结构 思考题+每周练习答案题目1:一个大小为11的散列表,散列函数为H(key)=keymod 11,采用线性探测冲突解决策略。如果现有散列表中仅有的5个元素均位于下标为奇数的位置,问:该散列表的平均不成功查找次数是多少?A. 6/11B. 1C. 16/11D. 不确定解答:如上图,...

数据结构 邻接表构造图用来实现DFS算法

虽然我更倾向于使用邻接矩阵来实现图的算法,但是邻接表也不得不用一下,这里整理了一个可以直接运行查看结果的版本:输入数据:4 5为顶点数和边数,然后是5行数据,每行前两个代表边的顶点索引,第三个代表边的权重4 50 1 11 3 20 3 40 2 22 3 1函数列表:GGraph* CreateGraph(int VertexNum) 创建一个图void Inse...

数据结构 期中考试

全部每周作业和视频思考题答案和解析 见浙江大学 数据结构 思考题+每周练习答案汇总判断题:答案:F T F T F T F F T F1-1 若一个结点是某二叉树的中序遍历序列的最后一个结点,则它必是该树的前序遍历序列中的最后一个结点。(3分)TF如果该树根只有左子树,则根节点为最后遍历到的节点,且是前序遍历的第一个节点。1-2 一棵有124个结点...

《蒙特卡洛光线追踪》 随机方法 超详分析(数学+程序预警)

蒙特卡洛光线追踪技术系列见蒙特卡洛光线追踪技术上一节说过,结束后会单独写一节关于前面所有知识的梳理和总结。这一节不可能会特别短,但很可能会特别长,因为以前的程序都写完了,这一节基本上不会写程序,而全部都是原理的详细分析(超级详细!)。就让我们做好心理准备,开始走入MC的世界。一、MC与积分首先还是我们要进行的积分:结果就是下图中蓝色区域的面积:其实也很好使用MC方法,产生一堆横坐标0-2,纵坐标0

体渲染数学方法和模型

体渲染技术的起源和发展-精品文(超长预警)Table of Contents体渲染数学方法和模型理论介绍吸收发射和散射吸收项:发射项:体渲染数学方法和模型Hege等人在1993年发布的文章中具体阐述了体渲染的数学方法,凡是做过体渲染的人不可能不知道这套体系。其实说实话,从内容来看,接下来的这篇文章更像是前面的技术的一个总结。不过这篇文章确实阐述的是比较完备的体渲染算法,它还是基于线性传输理论。理论

机器学习 之 尽可能通俗易懂的决策树算法

首先先贴一下百科上关于决策树的基本概念:决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统..

深度学习神经网络 卷积神经网络 第二节,构建前向传播函数(二)

先写一个函数名:# 定义前向传播的过程def forward(x, train, regularizer):在这个大函数里我们要把前向传播的网络结构搭建好。x是输入数据,train表示是否是训练还是测试,因为我们训练和测试都在使用同样的前向传播结构。train如果是TRUE,就是训练,如果是FALSE,就说明是用来测试。我们定义第一层网络结构,这是一个卷积层,卷积的结构由前...

机器学习 演化规划

机器学习文章目录EP算法的特点是自适应。演化算法需要搜索,问题在变的时候,算法预测也会改变(方程改变)。与遗传算法相比,该算法只有变异,没有交叉。经典的EP算法流程:父代产生子代只能靠变异:自适应中,标准差也会变,写个伪代码来表示一下:初始化变量和参数:(个体表现型(设为X),群体规模(设一个群体有N个个体),迭代次数(演化的次数)C等)随机产生N个个体,并计算这些个体的适应性while(迭代次数

机器学习中线性回归python编程注意事项

先把公式列在这里方便表述:我们设x0永远为1 ,用来表示 y = kx+b 中的 b因此,后面的式子就可以表述为:data.insert(0, 'Ones', 1)cols = data.shape[1]# 取前cols-1列为输入向量X = data.iloc[:,0:cols-1]# 取最后一列为目标向量y = data.iloc[:,cols-1:cols]X = np.array(X.va

深度学习神经网络 卷积神经网络 第四节,构建测试程序

测试程序也是很简单。首先创建计算图:with tf.Graph().as_default() as g:计算图的输入和输出占位与之前反向传播的函数一样:x = tf.placeholder(tf.float32, [mnist.test.num_examples,mnist_lenet5_forward.IMA...

    共 53 条
  • 1
  • 2
  • 3
  • 6
  • 请选择