logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Linux学习笔记(四) --Hbase集群部署

一、部署准备1、安装所需包官网下载地址百度云下载地址 ——提取码:mnay附:jdk与HBase版本、Hadoopk与HBase版本对应关系。如果版本不对应。可能会产生各种各样的问题。2、服务器规划IP地址主机名版本备注192.168.43.14yun1hbase-2.1.0-bin.tar.gz主节点192.168.43.254yun2hbase-2.1.0-bin.tar.gz数据节点192.

Linux学习笔记(三) --Zookeeper分布式协调服务部署

一、部署准备1、安装所需包百度云下载地址——提取码:mnay2、服务器规划IP地址主机名版本备注192.168.43.14yun1zookeeper-3.4.14-bin.tar.gz主节点192.168.43.254yun2zookeeper-3.4.14-bin.tar.gz数据节点192.168.43.180yun3zookeeper-3.4.14-bin.tar.gz数据节点二、部署步骤1

#linux#zookeeper#云计算
The Tomcat connector configured to listen on port 1804 failed to start. The port——执行spring-boot程序是报错

执行spring-boot程序是报错错误过程:***************************APPLICATION FAILED TO START***************************Description:The Tomcat connector configured to listen on port 8080 failed to start. The port may

#tomcat
sqlserver无法连接的localhost解决方案

问题:连接sqlserver时出现无法连接到localhost,如下图解决方案:一、首先确保连接数据库的服务器参数配置是否正确**如果是直接通过 Microsoft SQL Server Management Studio连接,要检查IP地址(非默认端口还要写端口号),用户名和密码是否正确。二,检查远程服务是否开启和远程服务器配置是否正确。(一般到第二步就解决...

#数据库
hdfs报错Command ‘hdfs‘ not found, did you mean

错误信息在刚装完Hadoop后,想尝试一下hdfs命令,结果出现以下报错:Command 'hdfs' not found, did you mean:解决方法原因是没有在bin目录下设置PATH,因此相关hadoop或者hdfs的命令都无法正常使用。以下给出一种解决方法:sudo vi /etc/profile然后在最下面加入一行配置PATH:export PATH=/usr/local/had

#hadoop#linux#hdfs
HBase报错ERROR: KeeperErrorCode = NoNode for /hbase/master

错误情况搭建完集群之后,在hbase shell中查看表或者查看状态时,出现error: KeeperErrorCode = NoNode for /hbase/master如图所示:错误原因在我们查看日志文件时发现hbase启动成功后,过几秒钟就自动停止了。这是因为hbase和zookeeper对应路径没有配置好导致的。注:查看日志文件路径:hbase安装目录下的logs文件中。日志文件:hba

#hbase
Ubuntu中Kafka的安装

这里是安装kafka_2.10-0.10.1.0.tgz版本,可以到官网下载。官网地址:https://kafka.apache.org/downloadscd ~/下载sudo tar -zxf kafka_2.10-0.10.1.0.tgz -C /usr/localcd /usr/localsudo mv kafka_2.10-0.10.1.0/ ./kafkasudo chown -R h

spark streaming运行kafka数据源

一、Kafka的安装和准备工作Kafka的安装,请看另外一文,一定要选择和自己电脑上已经安装的scala版本号一致才可以,本教程安装的Spark版本号是1.6.2,scala版本号是2.10,所以,一定要选择Kafka版本号是2.10开头的。比如,到Kafka官网中,可以下载安装文件Kafka_2.10-0.10.1.0,前面的2.10就是支持的scala版本号,后面的0.10.1.0是Kafka

#spark#大数据
到底了