logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Docker与传统虚拟化的差别

1. VM –> Dockers (职能更少) 原来由一个虚拟机变成现在多个Docker,每一个Docker里面所运行的服务智能会更少。2. IP –> Ips (关系更加复杂) 一个IP变成多个IP,多个IP承载多个服务,整个应用之间的关系更加复杂,不像在原来有一个VM承载所有的服务 ,现在把所有的大的服务拆分为很多细小的微服务提供给用户,体现它的价值。3. 服务

hbase与zookeeper版本对应关系

hbase与zookeeper版本之间的对应关系,有的同学一直困惑了很长时间。怎么样才能够找到zookeeper与hbase版本对应关系,最好能有一个查找表或则有一个标准。这个似乎还不太好找。本想通过源码,但是源码也没有收获。那么这里通过官网获取了一些信息,外加整理了一些,希望对大家有帮助,如果大家有更好的办法,欢迎提供分享给大家。在hbase官网http://hbas

hbase数据库错误总结 ——ERROR: Can't get master address from ZooKeeper; znode data == null

运行hbase shell时报错:hbase(main):001:0> listERROR: Can't get master address from ZooKeeper; znode data == nullHere is some help for this command:List all tables in hbase. Optional regular ex

TinyCoreLinux持久化问题

因为TinyCoreLinux是内存闪存系统,为保证系统的快速启动运行,所有数据都保存在内存中,所以当重启系统之后对系统的所有修改将被删除。因此需要指定一个tce目录,这样就会自动保存home和opt目录。默认情况下,关机的时候会调用backup utility保存你的文档和设置。backup utility会创建一个包含home和opt目录的压缩文档mydata.tgz。mydata.tgz保存

The content of element type "web-app" must match "(icon?,display-name?,description?,distributable?,c

问题:java生成的web.xml中添加引用servelet的代码就报错如下:The content of element type "web-app" must match "(icon?,display-name?,description?,distributable?,context-param*,filter*,filter-mapping*,listener*,servlet*,

Kafka是如何实现高吞吐率的

Kafka是分布式消息系统,需要处理海量的消息,Kafka的设计是把所有的消息都写入速度低容量大的硬盘,以此来换取更强的存储能力,但实际上,使用硬盘并没有带来过多的性能损失kafka主要使用了以下几个方式实现了超高的吞吐率顺序读写kafka的消息是不断追加到文件中的,这个特性使kafka可以充分利用磁盘的顺序读写性能顺序读写不需要硬盘磁头的寻道时间,

日志数据从kafka到hive是如何实现的

http://www.aboutyun.com/forum.php?mod=viewthread&tid=20701背景公司的系统是一个对外提供服务的接口,每一次调用日志都需要保存到hive中,以便后期做数据分析。每天的调用量在亿级,日志数据量100G以上,在量级还没有这么大的时候,采取的办法比较原始:直接通过log4j打印到日志文件,然后通过抽数工具同步到hive中,每天凌晨同步前一

浅谈开源大数据平台的演变

一说到开源大数据处理平台,就不得不说此领域的开山鼻祖Hadoop,它是GFS和MapReduce的开源实现。虽然在此之前有很多类似的分布式存储和计算平台,但真正能实现工业级应用、降低使用门槛、带动业界大规模部署的就是Hadoop。得益于MapReduce框架的易用性和容错性,以及同时包含存储系统和计算系统,使得Hadoop成为大数据处理平台的基石之一。Hadoop能够满足大部分

Java中com.jcraft.jsch.ChannelSftp讲解

参考:http://blog.csdn.net/allen_zhao_2012/article/details/7941631http://www.cnblogs.com/longyg/archive/2012/06/25/2556576.htmlhttp://xpenxpen.iteye.com/blog/2061869http://blog.csdn.net/fyqcdbd

机器学习在金融大数据风险建模中的应用

【摘要】在互联网金融、消费金融的蓬勃发展的当下,央行征信在数据时效性、全面性和层次性上的短板日益凸显。深度挖掘互联网大数据信息,开发大数据风控模型,更加精准的评估风险,已经逐渐成为了新一代信用风险模型体系建设的核心课题。本文在传统风险模型体系的基础上,嫁接逻辑回归和决策树模型建立T-L模型,并结合Random Forest模型完善模型结构。采用T-L核模型替代RF模型中的传统决策树

    共 12 条
  • 1
  • 2
  • 请选择