
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
最近在看一些针对数据挖掘的课题,发现一个链接对SVM的讲解非常通俗易懂,特分享一下。后续会逐步加入自己的理解: http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html
前端时间配置zookeeper日志时出现问题,尽管修改了conf目录下的log4j.properties, 重启zookeeper后仍不起作用。查了下资料,才知道要修改bin目录下的zkEnv.sh。注:我用的zookeper版本是3.4.5。总结步骤如下:1> 修改conf/log4j.properties:# Define some default values that
常见错误日志如下:org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss究其原因,是因为ZooKeeper建立连接时采用异步操作,连接操作后并不能保证ZK连接已成功。如果在ZK连接成功前的这个小时间窗口去访问ZK,就会碰到如上错误。解决思路很
以Linux用户tucson为例:1> mkdir /home/tucson/.vim2> 将javacomplete*.zip copy至 .vim下并解压缩(unzip yourZip) [tucson@apple ~]$ ls .vim/ autoload doc3> cd /home/tucson/.vim/autoload/4>
Log Segment: 一个Segment包含两个组件(component): log文件和index文件; 每个Segment有一个基本偏移量(baseOffset)log文件记录的是真实的kafka message;index文件记录的是message逻辑偏移量offset和物理文件位置之间的映射。(1) Segment文件命名规则:[base_offset].index 和
本文记录自己的一些理解,盼路过高手指正。先解释下两个概念:high watermark (HW) 它表示已经被commited的最后一个message offset(所谓commited, 应该是ISR中所有replica都已写入),HW以下的消息都已被ISR中各个replica同步,从而保持一致。HW以上的消息可能是脏数据:部分replica写成功,但最终失败了。
介绍整合flume和kafka的文章很多。最近正好学习并动手实践了一回,记下自己的一些心得。Flume简介flume是 Cloudera 开发的实时日志收集系统。她包含三个重要组件,就是source(采集读入数据), sink(输出数据)和channel(source和sink之间的buffer)。值得一提的是, flume支持一个source采集数据,并通过多个c
总结下自己在尝试Kafka分区迁移过程中对这部分知识的理解,请路过高手指正。关于Kafka数据迁移的具体步骤指导,请参考如下链接: http://www.cnblogs.com/dycg/p/3922352.html 原文作者写的非常清晰。本文主要侧重自己对相关Kafka源代码的理解:generateAssignment()函数 (对应上述链接原文中的 --
I0Itec-zkClient是Kafka中使用的Zookeeper客户端, 其功能有如下特点:1) 支持ZK断链重连------通常都要求它能够在断链的时候,重新建立连接,无论session失效与否.2) event监听器------类似ZK Watch机制。用过原生态Java ZK客户端的同学应该知道,每次需要监听event 时,都需要再注册一遍相关znode的watch,比较
有时候需要把一个应用程序开启为后台进程,目前的理解如下:以一个 ping程序为例: $ ping www.baidu.com ===> 开启一个前台程序 $ ping www.sohu.com & ===> 开启一个后台程序,但该后台程序和当前的bash(shell)属于一个进程组, 且属于相同会话(







