logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

scala版本,spark将hive的数据批量导入hbase

1 spark将hive上的数据同步到hbase将hive数据转换为hfile, 快速导入hbase ,里面有很多坑.比如 : 版本不一致.还有就是本地版本和集群版本不一致导致class不存在.写hbase代码最好是使用java和scala。我这里使用的是spark2.4 + hbase 2.1 切记不同版本使用的方法不一样。2 代码package com.test.taskimport java

#spark#hive#hbase +2
scala版本,spark将HDFS上的数据同步到hbase

1 spark将HDFS上的数据同步到hbase将hdfs数据转换为hfile, 快速导入hbase2 pom.xml<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-

#hbase#spark#hdfs
Flink大数据实时标签实时ETL --04mysql广播和kafka流合并

1、mysql广播和kafka流合并主要应用于实时流关联广播.主要应该与实时流关联mysql上规则增加关联性.2、代码package com.funcimport com.bean.BuriedPointDetailBeanimport org.apache.flink.api.common.state.MapStateDescriptorimport org.apache.flink.strea

#flink#大数据#mysql +2
到底了