logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

java float double int 疑惑

1.double a =0.58;  System.out.println("a:"+a);  System.out.println("相乘之后为::"+a*100); 输出:a:0.58相乘之后为::57.99999999999999 2.float a =0.58f;  System.out.println("a:"+a)

linux mint 13 使用 root 登录 设置

linux mint13  root 登录    linux  mint13 该版本安装完成后,默认是不允许管理员身份直接从登录窗口登录的。可以按如下设置解决该问题:menue》》System Tools 》》 Administrator 》》 登录窗口》》输入root密码》》安全》》勾选“允许本地系统管理员登录(allowlocal system administrator log

java io bio nio aio 详解

BIO、NIO、AIO的区别:BIO就是基于Thread per Request的传统server/client实现模式,NIO通常采用Reactor模式,AIO通常采用Proactor模式,AIO简化了程序的编写,stream的读取和写入都有OS来完成,不需要像NIO那样子遍历Selector。Windows基于IOCP实现AIO,Linux只有eppoll模拟实

基于Hadoop的并行数据挖掘算法工具箱——Dodo

1.dodoWeka是由新西兰Waikato大学研发的数据处理和知识发现软件包。其可以实现数据预处理、聚类、分类、回归、特征选择、可视化等各种数据挖掘的任务。Weka被广泛用于各种数据挖掘任务中算法的评估。但其中数据挖掘算法的实现是基于单机实现的。与Weka不同的是,Apache组织基于Hadoop平台的,采用MapReduce计算模型,实现大量机器学习算法的并行化,并将其封装在Mahout项

Spark计算过程分析

基本概念Spark是一个分布式的内存计算框架,其特点是能处理大规模数据,计算速度快。Spark延续了Hadoop的MapReduce计算模型,相比之下Spark的计算过程保持在内存中,减少了硬盘读写,能够将多个操作进行合并后计算,因此提升了计算速度。同时Spark也提供了更丰富的计算API。MapReduce是Hadoop和Spark的计算模型,其特点是Map和Reduce过程

#spark
Apache Mahout中的机器学习算法集

Apache Mahout 是 ApacheSoftware Foundation (ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序,并且,在 Mahout 的最近版本中还加入了对Apache Hadoop 的支持,使这些算法可以更高效的运行在云计算环境中。在Mahout实现的机器学习算法见下表:

Mahhout实现的算法、源码包分析

Apache Mahout 是 ApacheSoftware Foundation (ASF) 旗下的一个开源项目,提供一些可扩展的机器学习领域经典算法的实现,旨在帮助开发人员更加方便快捷地创建智能应用程序,并且,在 Mahout 的最近版本中还加入了对Apache Hadoop 的支持,使这些算法可以更高效的运行在云计算环境中。在Mahout实现的机器学习算法见下表:

到底了