
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
idea连接hdfs实现增删改查(附java代码)
在写增删改查前,我想先写一下如何在idea中直接连接hdfs首先我们需要在File->Settings->Plugins 中下载Big Data Tools然后我们发现idea右边多了一个Big Data Tools选择Explicit uri最后我们看到成功连接.(在此之前肯定要启动虚拟机上的Hadoop集群的)然后进入正题 ,使用hdfs进行增删改查首先既然是连接hdfs 那么UR
解决报错Caused by: javax.net.ssl.SSLHandshakeException: No appropriate protocol (FlinkCDC连接Mysql)
【代码】解决报错Caused by: javax.net.ssl.SSLHandshakeException: No appropriate protocol (FlinkCDC连接Mysql)
Application application_xxx failed 2 times due to AM Container for attempt_xxx exited withexitCode:
通过上面的两张图片不难看出,主要是存在两个问题。结果显示块状态是健康的,即并没有块损坏这一说法。
Flume版本过低造成:org.apache.kafka.common.KafkaException: Failed to construct kafka producer
【代码】Flume版本过低造成:org.apache.kafka.common.KafkaException: Failed to construct kafka producer。
idea连接虚拟机的Hbase(附基本的创建表与查看表是否存在代码)
先看一下总体概况1,首先快速创建一个Maven项目提供依赖支持如果不用模板,我是不能采用aliyun镜像下载相关依赖的,可能是我自己默认配置有问题改变 Maven仓库为提前下载的仓库(具体配置可以自行搜索, 主要是改变setting配置与新建maven仓库)可以看到相关配置已经自动通过阿里云下载2,新建依赖并且从虚拟机中导入相关文件在pom.xml文件下新建如下依赖<dependency&g
到底了







