logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

解决Spark读取Hive的数据库,只能读取到default

​问题原因:按照网上的诸多博客等想使用Spark直接读取Hive,但不使用Hivejdbc的方式,在导入两个xml之后只能读取到default这个数据库,按照诸多网上的教程,修改xml还是未能起到作用(hive不能称为一个数据库,只是习惯了,下次一定改)01.文件拷贝​上传core-site.xml,hive-site.xml到spark/conf目录下,core-site.xml在Hadoop种

#hadoop#hdfs#big data +1
解决docker中数据库时间与当前时间不吻合

01.问题排查1.使用mysql数据库查询当前日期的时候发现时间并不吻合select CURRENT_DATE(),CURRENT_TIME();2.数据库的配置问题​在window11系统上,使用VMware Workstation软件,配置的虚拟机​虚拟机系统为centos7,配置有docker容器。并在docker容器中配置的mysql数据库(base) [root@192 ~]# dock

#docker#数据库#容器
Part5---Java连接HBase读取数据

01.加载maven依赖<dependency><groupId>org.apache.hbase</groupId><artifactId>hbase-client</artifactId><version>2.1.1</version></dependency>02.准备数据​在dbeaver上显示

#java#hbase
python实现kafka生产以及sparkstream消费

01.启动zookeeper,启动Kafka,创建Kafka主题,kafka生产者,kafka消费者​详见之前文章:http://t.csdn.cn/JRFRs02.使用python语言,对Kafka进行数据的写入from kafka import KafkaProducerfrom kafka.errors import KafkaErrorproducer =KafkaProducer(boo

#kafka
kafka+Spark+Hive+Hdfs模拟实时数据接入并汇总输出

​目的:模拟数据不断写入,同时不断处理01.启动相关的服务​Hdfs文件系统​Zookeeper服务​Kafka(主题,生产,消费)​Hive数仓(元数据库mysql)​Spark能够直接sql操作Hive,不然使用jdbc方式(base) [root@192 ~]# jps3200 SecondaryNameNode2835 NameNode5011 ConsoleProducer85045 J

#kafka#spark
Part6---Java创建Hbase表

01.先查看HBase中表(base) [root@192 ~]# hbase shellHBase ShellUse "help" to get list of supported commands.Use "exit" to quit this interactive shell.For Reference, please visit: http://hbase.apache.org/2.0/

#java#hbase
Part8---Java删除Hbase数据

01.查看原始表02.删除Hbase数据2.1删除指定行键的整条记录import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.TableName;import org.apache.hadoop.hbase.client.Connection;import org.apache.hadoop.hbase.c

#java#hbase
到底了