简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
问题原因:按照网上的诸多博客等想使用Spark直接读取Hive,但不使用Hivejdbc的方式,在导入两个xml之后只能读取到default这个数据库,按照诸多网上的教程,修改xml还是未能起到作用(hive不能称为一个数据库,只是习惯了,下次一定改)01.文件拷贝上传core-site.xml,hive-site.xml到spark/conf目录下,core-site.xml在Hadoop种
01.问题排查1.使用mysql数据库查询当前日期的时候发现时间并不吻合select CURRENT_DATE(),CURRENT_TIME();2.数据库的配置问题在window11系统上,使用VMware Workstation软件,配置的虚拟机虚拟机系统为centos7,配置有docker容器。并在docker容器中配置的mysql数据库(base) [root@192 ~]# dock
01.加载maven依赖<dependency><groupId>org.apache.hbase</groupId><artifactId>hbase-client</artifactId><version>2.1.1</version></dependency>02.准备数据在dbeaver上显示
01.启动zookeeper,启动Kafka,创建Kafka主题,kafka生产者,kafka消费者详见之前文章:http://t.csdn.cn/JRFRs02.使用python语言,对Kafka进行数据的写入from kafka import KafkaProducerfrom kafka.errors import KafkaErrorproducer =KafkaProducer(boo
目的:模拟数据不断写入,同时不断处理01.启动相关的服务Hdfs文件系统Zookeeper服务Kafka(主题,生产,消费)Hive数仓(元数据库mysql)Spark能够直接sql操作Hive,不然使用jdbc方式(base) [root@192 ~]# jps3200 SecondaryNameNode2835 NameNode5011 ConsoleProducer85045 J
01.先查看HBase中表(base) [root@192 ~]# hbase shellHBase ShellUse "help" to get list of supported commands.Use "exit" to quit this interactive shell.For Reference, please visit: http://hbase.apache.org/2.0/
01.查看原始表02.删除Hbase数据2.1删除指定行键的整条记录import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.TableName;import org.apache.hadoop.hbase.client.Connection;import org.apache.hadoop.hbase.c