logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

冠军杜兰特和Deta比赛

这一周,两件事不得不说,一个是NBA本赛季杜兰特终于如愿为勇士折桂、个人拿下总决赛MVP;另一个就是重组织形式而不重比赛内容的delta。总觉得这两件事有点关联,就是没想出有什么,也许是团队的重要性吧。NBA这个赛季,和以前一样,还就是周末还有球赛看一看,然而比往年多了一个关注点,就是勇士队的比赛,重点是整队的稳定性还有就是杜兰特的表现。为什么这么关注呢?源于那时在小区球场上,某位球友的看

【正一专栏】识时务者为俊杰——致敬杜兰特

识时务者为俊杰——致敬杜兰特勇士在总决赛第四场比赛中没有实现横扫,但是回到主场干净利落地以129:120战胜骑士,总比分4:1赢得了今年的NBA总冠军,这对于勇士来说是一个最好的结果,在主场球迷的欢呼声中庆祝球队的又一个总冠军。而这一切对于杜兰特来说,更像是一个梦幻般的开始,又是对自己的救赎。九年来自己的第一个总决赛冠军,总决赛MVP实至名归,无解的杜兰特。追逐梦想的人,永远值

【正一专栏】轮回-从坚信去年骑士会逆转到今年坚定看好勇士横扫

轮回-从坚信去年骑士会逆转到今年坚定看好勇士横扫NBA总决赛骑士回到主场依然没有阻挡住勇士队前进的步伐,最后时刻死神杜兰特终结了比赛,带领勇士绝地反击逆转了骑士队,骑士丢掉了到手的胜利,在大比分0:3落后的情况下,被横扫已成定局,而杜兰特将毫无争议的获得总决赛MVP,成就自己十年来第一个总冠军。很期待下一场勇士获胜后、杜兰特喜极而泣的样子,他会说些什么。去年

【数据挖掘知识点一】数据分布特征的描述

知识点:数据分布特征的描述1、变量集中趋势的测定变量在不同个体或不同时间条件下具体表现出来的数据是不同的,不过众多个体的数据常常会呈现出在一定范围内围绕某个中心而波动的分布特征。衡量数据集中趋势的指标有两类:一类是数值平均数,包括算数平均数、调和平均数、几何平均数;另一类是位置代表值,根据数据所处位置直接观察或根据与特定位置有关的部分数据来确定的代表值,主要有众数和中位数。测定集中

centos6.2关于tomcat远程不能访问的问题处理过程

问题:局域网内配置好tocmat,服务器本机访问http://ip:8080成功,但远程访问http://IP:8080/失败,下面是一步步排查过程:1 tomcat禁用IPv6关闭网卡IPV6协议#netstat –anp |grep 8080  //是jsvc程序和tomcat用户在用,且端口在监听状态#lsof –i:8080 //发现type=IPV6,很奇怪怎么是IPV6

HDFS HA介绍及配置理解

1、HDFS HA介绍相比于Hadoop1.0,Hadoop 2.0中的HDFS增加了两个重大特性,HA和Federaion。HA即为High Availability,用于解决NameNode单点故障问题,该特性通过热备的方式为主NameNode提供一个备用者,一旦主NameNode出现故障,可以迅速切换至备NameNode,从而实现不间断对外提供服务。Federation即为“联邦”,该特

【知识发现】隐语义模型LFM算法python实现(一)

1、隐语义模型:物品:表示为长度为k的向量q(每个分量都表示 物品具有某个特征的程度)用户兴趣:表示为长度为k的向量p(每个分量都表示 用户对某个特征的喜好程度)用户u对物品i的兴趣可以表示为:其损失函数定义为:  使用随机梯度下降,获得参数p,q。负样本生成:对于只有正反馈信息(用户收藏了,关注了xxx)的数据集,需要生成负样本,原则如下1)生成的负样本要和正样本...

机器学习知识点(九)BP神经网络Java实现

为深入理解机器学习中BP神经网络算法,从网上找到的Java实现代码。1、BP神经网络结构如下图所示,最左边的是输入层,最右边的是输出层,中间是多个隐含层,隐含层和输出层的每个神经节点,都是由上一层节点乘以其权重累加得到,标上“+1”的圆圈为截距项b(功能神经元结点的阈值),对输入层外每个节点:Y=w0*x0+w1*x1+…+wn*xn+b,神经网络相当于一个多层逻辑回归的结构。算法

VC对话框禁止关闭按钮和禁止任务管理中关闭进程

<br />1.BOOL C***Dlg::OnInitDialog()<br />{<br />    //禁止关闭对话框<br /> CMenu* pMenu = this->GetSystemMenu(FALSE);<br /> pMenu->ModifyMenu(SC_CLOSE,MF_BYCOMMAND | MF_GRAYED );<br />    //禁止在任务管理器中关闭进程<br

#windows
损失函数中正则化项L1和L2的理解

正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1-norm和ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的

    共 47 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择