简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
why hadoop2.X?IBM上有篇论文讲的够详细了:文章链接。 最直观的改进就是是2.X多了Yarn资源管理器优化资源分配,以及新增有HA模式防止单点故障,接下来就开始搭建一套分布式的Hadoop2.X+HA模式的平台,如果学习的话,可以用申请一年或者半年的免费云服务,当然也可以自己用虚拟机,若影用的呢是虚拟机模式的。准备阶段安装集群操作系统:检查一下自己电脑配置,因为最少...
为什么要学习Linux1. 工作需要,从事IT工作或多或少都要设计Linux;2. 迟早老子会有钱,要买一台苹果Mac坐在星巴克追剧,那你会发现,Mac的命令行模式竟然和Linux惊人的相识,我每次用到Mac命令行操作都是直接网上直接copy的,不知道啥意思,这是我一个做设计的朋友跟我吐槽的,嘿嘿,就怕哪天你copy了个`rm -rf *`3.每次看美国大片,发现那些电脑高手都在一个黑框框里啪啦啪
SoFlu(飞算)软件机器人是全球首款面向微服务架构设计和最佳实践的软件项目开发智能平台,平台以Java为主要开发语言,包含(后端)全自动开平台、(前端)全自动开发平台、全自动测试平台、全自动运维平台的项目全栈解决方案;她全程参数化的配置填写,拖拉拽的界面设计使得一人就能全栈解决后端服务到前端开发,以及后续的测试部署,甚至机器资源的运维监控与服务,因为她的存在,人人都是全栈架构师。
consumer.commitAsync(new OffsetCommitCallback() {@Overridepublic void onComplete(Map<TopicPartition, OffsetAndMetadata> offsets, Exception exception) {if (exception != null) {System.out.println(
离职的前辈把root密码也带走了,或者自己root密码忘记了,咋办?这篇文章就带你玩点刺激的,毕竟人生来就喜欢偷窥秘密。
文件本身存在ftp上,为了文件内的数据和数仓hive中的数据做分析,需要将ftp的数据上传 到hdfs,方法有很多,如果不是需要完全实时监控的话,可以采取hdfs自带的指令distcp抽取; 题外话:完全实时上传可以采取flume监控ftp文件件,再读取存入kafka,后续消费者消费kafka获取文件数据的方式,后续再讲,这节只讲distcp;1. 指令用法 distcp不仅可以实现hdf
你是在玩单机吗?对于现在而言,这句话无疑是略带嘲讽的含义,也恰恰证明了网络的重要性,那么计算机里面的网络是怎么分布的呢,为啥你能上网呢,Linux系统需要需要进行哪些网络配置呢,这里就给大家简单介绍下;
传统BI工具数据源太老?商用BI工具昂贵?云产品又技术壁垒?公司又没人力物力自研一款BI工具?那么你可以了解下Apache Superset,一款开源的大数据探索分析、可视化报表平台,支持丰富的数据库作为数据源,多姿多彩的图表可视化,非常好用。
ElasticSearch(以下简称:ES)作为搜索引擎,那么她最核心的重点当然是查询,接下来就给大家整理下ES的一些常用的搜索实现,本笔记主要实现RESTFul风格的代码和Java API代码为主,至于更多的其它API,可参考官网的各类API来实现; 官网各类编程语言API:Elasticsearch Clients图1 ES官网常用的各类编程语言APIElasticSearch的版本
metabase是一款开源的简易但强大同时又无缝兼容大数据和传统数据库的分析工具,帮助公司每一个人对企业数据的学习挖掘,进而达到更好的数据化运营和决策。