logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

hbase单机版(standalone)安装和配置

第一步:上传安装包第二步:修改hbase配置文件hbase-env.sh 加入以下内容:第三步:修改hbase配置文件hbase-site.xml 加入以下内容:第三步:启动hbase单机模式下hbase有自带的zookeeper 生产环境下一般搭建完全分布式的zookeeper集群注意:如果自己已经安装并启动了zookeeper 一定要先关闭 因为hbase自带有zookeeper 如果自己安装

Pulsar集群搭建和基本命令使用

目录1. Pulsar集群搭建2. Pulsar基本命令使用3. 使用pulsar-mamager对Pulsar进行可视化管理4. 参考资料1. Pulsar集群搭建为了方便快捷,此处使用Docker安装。(1)拉取最新Pulsar Docker镜像sudo docker pull apachepulsar/pulsar-all(2)进入Docker容器Pulsar容器内部的8080端口和6650

hadoop+zookeeper高可用性集群出现两个namenode均为standby状态原因及解决方法

使用hadoop fs -ls / 命令查看hdfs中的文件 报错如下:检查发现master和slave3两个NameNode的状态均为standby原因:先启动了hdfs再启动zookeeper 导致zookeeper的选举机制zkfc(DFSZKFailoverController)没有格式化 NameNode节点的自动切换机制没有开启 两个NameNode都处于standby状态解决方法:正

LNMP环境配置SSL踩坑实录(502 bad gateway)

之前一直使用的是LAMP套装,对nginx配置不是很熟悉,配置SSL过程中踩的坑记录一下第一步:在nginx的conf目录下新建一个cert文件夹 将域名证书的两个文件上传到该文件夹下第二步:修改nginx的虚拟主机配置如下server {listen 80;server_name www.domain.com;rewrite ^(.*) https://$ser...

使用命令行操作zookeeper

1. 启动zookeeper:zkServer.sh start(前提是要配置zookeeper的环境变量)2. 查看zookeeper进程:jps3. 查看zookeeper运行状态:zkServer.sh status4. 启动zookeeper客户端:zkCli.sh5. 查看帮助:-h6. 查看根目录下的文件:ls /7. 创建子节点(子目录):create 目录名 数据 8. 查看某个目

在hbase shell中使用list命令报错:ERROR: Can't get master address from ZooKeeper; znode data == null原因及解决方法

电脑意外关机 启动后打开hbase shell 输入list命令查看所有表 报错如下:ERROR: Can't get master address from ZooKeeper; znode data == null原因:运行hbase(zookeeper)的用户无法写入zookeeper文件,导致znode data为空。解决方法:方法一:重启hbase(可能是zookeeper或hbase不

CDH、Cloudera Manager简介及离线安装步骤

CDH是Hadoop众多分支中的一种,由Cloudera维护,基于稳定版本的Apache Hadoop构建,提供了Hadoop的核心, 可扩展存储,分布式计算,基于Web的用户界面Cloudera Manager是一个管理CDH的端到端的应用。它的作用是对CDH进行管理、监控、诊断和集成安装前的准备:①网络配置②SSH免密钥登录③防火墙关闭④SELINUX关闭(setenforce 0  vi /

Linux下禁止apache开机自动启动

由于我的Linux上同时安装了apache和nginx 每次开机时apache都会自动启动占用80端口 导致nginx无法启动方法一:chkconfig httpd off(实际上并不起作用)方法二:vim  /etc/rc.d/rc.local 注释掉apache的自动启动脚本这样apache就不会开机自启了...

Flink SQL Clien读取Kafka数据写入Hive

版本说明:Flink 1.11.1Kafka 2.4.0Hive 2.3.6Hadoop 2.7.3详细步骤:准备相关jar包hive-exec-2.3.6.jarhive-metastore-2.3.6.libfb303-0.9.3.jarjarkafka-clients-2.4.0.jarflink-sql-connector-hive-2.3.6_2.11-1.11.1.jarflink-s

Flink整合Kafka报错:Marking the coordinator hadoop000:9092(id: 2147483647 rack: null) dead

代码很简单,如下:package com.imooc.flink.course08import java.util.Propertiesimport org.apache.flink.api.common.serialization.SimpleStringSchemaimport org.apache.flink.streaming.api.scala.{DataStream, Str...

#flink
到底了