logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

虚拟机安装,当ifup eth0失败时的解决办法

在vmware11下安装centOS6.5,在启动后进行网卡添加,步骤如下:setup 出现界面1此时选择network configuration出现界面2选择device configuration出现界面3选择eth0出现界面4 在primary DNS server中输入8.8.8.8原路保存退出即可返回到终端输入vi /etc/sysconfig/network-scripts/ifcf

Linux磁盘空间重新分配

一、目的在使用CentOS6.3版本linux系统的时候,发现根目录(/)的空间不是很充足,而其他目录空间有很大的空闲,所以本文主要是针对现在已有的空间进行调整。首先,先来查看一下系统的空间分配情况:[plain] view plaincopyprint?01.[root@CentOS-78 /]# df -h  02.Filesystem            Size  Used Avail

查看zookeeper的运行信息的命令详解

总的命令样例是:使用方法:echo 'command'|nc ip port查看zookeeper的集群连接数信息:echo 'srvr'|nc 10.221.5.140 2181Zookeeper version: 3.4.5-cdh5.7.2--1, built on 07/22/2016 19:18 GMT       版本Latency min/avg/max: 0/0/104 ...

SpringBoot 中 No operations allowed after connection closed 问题的解决

记一次BUG的修改!!!!!关于数据池连接的问题一个基于springcloud的微服务项目,详细配置: SpringCloud + SpringMVC+SpringData JPA+ MySql+Postgresql其中项目配置了多数据源,前期开发测试是没什么问题的,但是等到项目在服务器上面测试时,第二天就上午出现了数据库连接异常。经过查看日志发现下面这个异常:注意异常信息: No o...

Linux中/etc/passwd文件中的内容

“大多数的服务器都禁止了root账户的直接登陆,而是利用sudo将权限分配给其他管理员,或者先用普通用户登陆,再su成root用户来进行操作,降低了风险。”于是动手开始进行操作:sudo vi /etc/passwd 直接编辑passwd文件,将root用户的后面加上了nologinroot:x:0:0:root:/root:/bin/bash/nologin试验一下,果然不许登陆了(其实写错了,

flume采集日志,放到kafka中

tier1.sources  = HbaseAuditSources HbaseRunSources HdfsAuditSources HdfsRunSources HiveAuditSources HiveRunSources StormWorkerSources StormRunSources YarnAuditSources YarnRunSourcestier1.channels = Hb

flink消费kafka数据 之 消费位点

原文:https://data-artisans.com/blog/how-apache-flink-manages-kafka-consumer-offsets作者:Fabian Hueske, Markos Sfikas译者:云邪(Jark)在本周的《Flink Friday Tip》中,我们将结合例子逐步讲解 Apache Flink 是如何与 Apache Kafka 协同工作...

kafka的可靠性保证

一、kafka的存储机制kafka通过topic来分主题存放数据 主题内又有分区 分区还可以有多个副本 ,分区的内部还细分为若干个segment。所谓的分区 其实就是在 kafka对应存储目录下创建的文件夹,文件夹的名字是主题名加上分区编号 编号从0开始。所谓的segment 其实就只在分区对应的文件夹下产生的文件。一个分区会被划分成大小相等的若干segment 这样一方面保证了分区的数据被...

大数据实时处理系统架构

系统基本架构整个实时分析系统的架构就是先由电商系统的订单服务器产生订单日志, 然后使用Flume去监听订单日志,并实时把每一条日志信息抓取下来并存进Kafka消息系统中, 接着由Storm系统消费Kafka中的消息,同时消费记录由Zookeeper集群管理,这样即使Kafka宕机重启后也能找到上次的消费记录,接着从上次宕机点继续从Kafka的Broker中进行消费。但是由于存在先消费后记录日志或者

到底了