简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在使用docker的时候,我们经常通过docker logs -f containername或者id但是有时候日志很多。很麻烦。所以需要清理一下对应container的日志。默认情况下,daocker日志一般放在以下目录:/var/lib/docker/containers/然后找到对应的container,然后进去,通过echo “” > **.log 即可...
org.apache.hadoop.hbase.MasterNotRunningException:The node /hbase-unsecure is not in Zookeeper. It should have been written by the master.Check the value configured in "zookeeper.znode.parent".There c
今天在使用hbase的时候,发现总是失败,找出日志一看,都是WARN org.apache.zookeeper.ClientCnxn:Session 0x0 for server ***:2181,unexpected error,closing socket connection and attempting reconnectjava.io.IOException: Connect
最近互联网机器换成了深度linux,需要重新挂载磁盘。发现深度有个工具,root用户下在命令行中输入:gparted 即可弹出一个磁盘划分工具。图形界面的。具体怎么用就不细说了。先是划分盘符-》格式化-》创建目录—>挂载-》添加到/etc/fstab 这样就完成了。挂在命令: mount 要挂载的盘 挂载目录修改fstab,这个照着里面已有的进行修改
一、安全特性在0.9之前,Kafka安全方面的考虑几乎为0,在进行外网传输时,只好通过Linux的防火墙、或其他网络安全方面进行配置。相信这一点,让很多用户在考虑使用Kafka进行外网消息交互时有些担心。在安全方面,主要有以下方面设计:客户端连接borker使用SSL或SASL进行验证borker连接ZooKeeper进行权限管理数据传输进行加密(需要考虑性能方面的影响)客户端读、写操
kafka是吞吐量巨大的一个消息系统,它是用scala写的,和普通的消息的生产消费还有所不同,写了个demo程序供大家参考。kafka的安装请参考官方文档。首先我们需要新建一个maven项目,然后在pom中引用kafka jar包,引用依赖如下:org.apache.kafkakafka_2.100.8.0
今天在写kafka的producer的时候遇到以下错误:kafka.common.FailedToSendMessageException: Failed to send messages after 3 tries.at kafka.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:90)at ka
转载自:http://blog.csdn.net/xueba207/article/details/51135423问题描述笔者使用Spark streaming读取Kakfa中的数据,做进一步处理,用到了KafkaUtil的createDirectStream()方法;该方法不会自动保存topicpartition的offset到zk,需要在代码中编写提交逻辑,此处
最近遇到过这种错误两次了,通过describe来看的时候是正常的,但是总会报错,猜测试网络问题。果不其然,一次是一台kafka的机器的防火墙没有关掉,关掉之后就ok了。另外一次是因为工程把主机配置localhost后面了。这样的话,导致kafka总是去127.0.0.1通讯,导致报错。去掉hosts文件中127.0.0.1后面的主机名配置就可以了。比如127.0.0.1 local
同事新搭建了一个kafka集群,在创建topic的时候遇到错误:执行:./kafka-topics.sh --zookeeper linux1:2181 --create --topic test --replication-factor 1 --partitions 1报错:rror while executing topic command org.apache.zookeeper