logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Cassandra联手Spark 大数据分析将迎来哪些改变?

2014Spark峰会在美国旧金山举行,与会数据库平台供应商DataStax宣布,与Spark供应商Databricks合作,在它的旗舰产 品 DataStax Enterprise 4.5 (DSE)中,将Cassandra NoSQL数据库与Apache Spark开源引擎相结合,为用户提供基于内存处理的实时分析。Databricks是一家由Apache Spark创始人成立的公司。谈到这..

#数据库#大数据#hadoop +2
不同主机的docker容器互相通信

Docker启动时,会在宿主主机上创建一个名为docker0的虚拟网络接口,默认选择172.17.0.1/16,一个16位的子网掩码给容器提供了 65534个IP地址。docker0只是一个在绑定到这上面的其他网卡间自动转发数据包的虚拟以太网桥,它可以使容器和主机相互通信,容器与容器间通 信。Docker启动后,ifconfig显示如图:进入一个images会产生一个虚拟链路...

#docker#kubernetes#网络
VirtualBox虚拟机设置双网卡:内网固定IP方便内部使用、外网DHCP方便上网

1. 管理->主机网络管理器网卡设置:DHCP服务器设置:2. 选定已创建的虚拟主机,设置->网络网卡1设置为:仅主机网卡2设置为: 桥接网络3.主机启动,修改网卡配置4.查看效果...

文章图片
#tcp/ip#网络#网络协议
kafka 解密:破除单机topic数多性能下降魔咒

https://bbs.huaweicloud.com/blogs/112956版权归PUMA项目组所有,转载请声明,多谢。kakfa大规模集群能力在前面已给大家分享过,kafka作为消息总线,在支撑云千万tps上千节点的集群能力非常出色,本文继续对业界关于单机多topic的性能瓶颈点问题(比如:https://yq.aliyun.com/articles/62832?spm=5176.10...

#大数据#面试#java +1
Hudi on flink v0.7.0 使用遇到的问题及解决办法

近日,Hudi社区合并了 Flink 引擎的基础实现(HUDI-1327),这意味着 Hudi 开始支持 Flink 引擎。当前 Flink 版本的 Hudi 只支持读取 Kafka 数据,sink到 COW 类型的 Hudi 表中,其他功能还在完善。这里我们简要介绍下如何从 Kafka 读取数据 写出到 Hudi表。Hudi社区已经正式发布了hudi-0.7.0版本。hudi on f...

#java#hdfs#hadoop +2
Kafka 权限管理实战(最全整理)

一、概述1、Kafka的权限分类1)、身份认证(Authentication):对client 与服务器的连接进行身份认证,brokers和zookeeper之间的连接进行Authentication(producer 和 consumer)、其他 brokers、tools与 brokers 之间连接的认证。2)、权限控制(Authorization):实现对于消息级别的权限控制,cli...

#java#kafka#大数据 +2
ERROR:"org.apache.zookeeper.KeeperException$NoAuthException: KeeperErrorCode = NoAuth for /config/to...

PROBLEM DESCRIPTIONWhencreating or deleting topics in Kafka, they cannot be authorized through the Ranger policies. The following errors are displayed while creating the topics:[ADM_xxxx@xxxx-o...

#kafka#java#大数据 +2
DISK 100% BUSY,谁造成的?(ok)

iostat等命令看到的是系统级的统计,比如下例中我们看到/dev/sdb很忙,如果要追查是哪个进程导致的I/O繁忙,应该怎么办?# iostat -xd...Device:rrqm/swrqm/sr/sw/srkB/swkB/s avgrq-sz avgqu-szawait r_await w_awaitsvct...

#linux#java#python +1
java.io.IOException: There appears to be a gap in the edit log. We expected txid ***, but got txid

方式1原因:namenode元数据被破坏,需要修复解决:恢复一下namenodehadoop namenode -recover一路选择Y,一般就OK了方式2Need to copy the edits file to the journal node (I have 3 journal node s101 s102 s103)[centos@s100 /home/centos...

#hadoop#hdfs#centos +1
Error:"Java patch PatchPasswordEncryption_J10001 is being applied by some other process" when starti...

SupportKBProblem Description:When starting Ranger admin, it fails to start up with the following error:[I] Java patch PatchPasswordEncryption_J10001 is being applied by some other processThe R...

#java#mysql#log4j +1
到底了