logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Docker 删除容器日志

在使用docker的时候,我们经常通过docker logs -f containername或者id但是有时候日志很多。很麻烦。所以需要清理一下对应container的日志。默认情况下,daocker日志一般放在以下目录:/var/lib/docker/containers/然后找到对应的container,然后进去,通过echo “” > **.log 即可...

kettle连接hbase

org.apache.hadoop.hbase.MasterNotRunningException:The node /hbase-unsecure is not in Zookeeper. It should have been written by the master.Check the value configured in "zookeeper.znode.parent".There c

#hadoop
hbase中报错:java.io.IOException: Connection reset by peer at sun.nio.ch.FileDispatcher.read0(Native

今天在使用hbase的时候,发现总是失败,找出日志一看,都是WARN org.apache.zookeeper.ClientCnxn:Session 0x0 for server ***:2181,unexpected error,closing socket connection and attempting reconnectjava.io.IOException: Connect

#hbase
深度Linux挂载盘

最近互联网机器换成了深度linux,需要重新挂载磁盘。发现深度有个工具,root用户下在命令行中输入:gparted   即可弹出一个磁盘划分工具。图形界面的。具体怎么用就不细说了。先是划分盘符-》格式化-》创建目录—>挂载-》添加到/etc/fstab     这样就完成了。挂在命令:  mount   要挂载的盘      挂载目录修改fstab,这个照着里面已有的进行修改

#linux
kafka0.9新特性

一、安全特性在0.9之前,Kafka安全方面的考虑几乎为0,在进行外网传输时,只好通过Linux的防火墙、或其他网络安全方面进行配置。相信这一点,让很多用户在考虑使用Kafka进行外网消息交互时有些担心。在安全方面,主要有以下方面设计:客户端连接borker使用SSL或SASL进行验证borker连接ZooKeeper进行权限管理数据传输进行加密(需要考虑性能方面的影响)客户端读、写操

#kafka
kafka java 生产消费程序demo示例

kafka是吞吐量巨大的一个消息系统,它是用scala写的,和普通的消息的生产消费还有所不同,写了个demo程序供大家参考。kafka的安装请参考官方文档。首先我们需要新建一个maven项目,然后在pom中引用kafka jar包,引用依赖如下:org.apache.kafkakafka_2.100.8.0

#kafka
kafka.common.FailedToSendMessageException: Failed to send messages after 3 tries.

今天在写kafka的producer的时候遇到以下错误:kafka.common.FailedToSendMessageException: Failed to send messages after 3 tries.at kafka.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:90)at ka

#kafka
Spark Streaming 'numRecords must not be negative'问题解决

转载自:http://blog.csdn.net/xueba207/article/details/51135423问题描述笔者使用Spark streaming读取Kakfa中的数据,做进一步处理,用到了KafkaUtil的createDirectStream()方法;该方法不会自动保存topicpartition的offset到zk,需要在代码中编写提交逻辑,此处

kafka消费者报错:Failed to add leader for partitions

最近遇到过这种错误两次了,通过describe来看的时候是正常的,但是总会报错,猜测试网络问题。果不其然,一次是一台kafka的机器的防火墙没有关掉,关掉之后就ok了。另外一次是因为工程把主机配置localhost后面了。这样的话,导致kafka总是去127.0.0.1通讯,导致报错。去掉hosts文件中127.0.0.1后面的主机名配置就可以了。比如127.0.0.1 local

#kafka
kafka创建topic报错:KeeperException$NoNodeException: KeeperErrorCode = NoNode for /brokers/ids

同事新搭建了一个kafka集群,在创建topic的时候遇到错误:执行:./kafka-topics.sh --zookeeper linux1:2181 --create --topic test --replication-factor 1 --partitions 1报错:rror while executing topic command org.apache.zookeeper

    共 13 条
  • 1
  • 2
  • 请选择