简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
docker构建hadoop镜像并运行
单机版hadoop使用docker构建及运行一、环境:组件信息组件版本CentOS7.9.2009java1.8.0_161hadoop3.1.3docker20.10.8服务配置机器服务node1datanodenode1namenodenode1resourcemanagernode1nodemanagernode1secondrynamenode二、准备镜像使用最新版本的centOS.doc
Clickhouse集成离线hive、实时kafka数据实操
Clickhouse集成hive一、官网介绍:1、clickhouse集成hive官网介绍:2、clickhouse支持的数据类型:二、创建对应hive的clickhouse表1、利用clickhouse的HDFS Engine建表语句二、建表需要注意的地方(详细解析)1、schema必须要与hive表中一致2、格式要求3、路径解析4、hdfs路径三、我担心hive数据更新后不能同步过来,继续在做
flink中间结果写入hdfs并构建hive分区表
flink中间结果写HDFS项目中遇到一个应用场景需要将flink计算的中间结果写入到hdfs中提示:正常的kafka数据还是用flume同步至hdfs吧,用flink写hdfs会有很多问题文章目录flink中间结果写HDFS一、pandas是什么?二、使用步骤1.代码修改1)、写入本地文件中2)、写入至hdfs中2.flink写hdfs目前存在的问题总结一、pandas是什么?流数据写入到hdf
到底了