
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
今天编译安装了kettle8.3.10-R版本,然后连上公司的hadoop环境,测试hive2连接时报错:错误连接数据库 [hive_hdp] : org.pentaho.di.core.exception.KettleDatabaseException:Error occurred while trying to connect to the databaseError connecting t
所以这个问题的原因多半是target目录下复制生成的yml配置文件有问题,可以找到这个文件打开检查一下,或者直接删除,重新启动生成该文件。这个错误的原因是yml配置文件加载有问题,但是加载的不是src目录下的配置文件,而是target/classes目录下的配置文件。

今天公司etl组件kafkaoutput从指定偏移量读取数据失效,还是从最新的偏移量开始读取数据,检测发现是因为auto.offset.reset属性在作怪,这个属性默认是latest,说明如下: 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下(因消费者长时间失效,包含偏移量的记录已经过时并被删除)该作何处理。它的默认值是latest,意思是说,在偏移量无效的情况下,消.
废话不多说,直接开始吧:场景:有新旧两个jekins,旧的jekins是2.200版本,上面有80个左右的任务;新的jekins是2.303版本,上面有40个任务;现在要把旧版的80个任务迁移到新版里面。涉及合并的东西包括:系统配置,缺失的插件,所有的job。ps:中途看到网上很多人用的job import plugin来合并任务, 我也试了一下,根本导不过来。感觉就是个垃圾插件。一,先备份,为自
启动环境为linux的centos6.8,cpu架构为x86_64.Exception in thread "main" java.lang.UnsatisfiedLinkError: Could not load SWT library. Reasons:no swt-pi-gtk-3659 in java.library.pathno swt-pi-gtk in java.library.pa
直接使用ssh命令打包、上传、部署,流水线脚本如下:pipeline {agent anytools {// Install the Maven version configured as "M3" and add it to the path.maven "M3"}stages {stage('Build') {steps {// Get some
xxljob是一个非常简单易用的国产调度工具,它分为调度器和执行器。其中调度器是一个web系统,可以管理任务和查看日志。我们经常使用xxljob来做微服务的任务调度,但是在服务中,我们的执行器可能就是一个方法,这个方法中可能层层嵌套有大量的logback(log4j没有试)的logger打印日志的代码,我们怎么让xxljob的web管理端可以看到这些logger打印的日志呢?原理就是利用logba
druid数据源配置中修改一下如下配置:connectionProperties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000;druid.log.conn=false;druid.log.stmt=false;druid.log.rs=false;druid.log.stmt.executableSql=true解释:druid.
公司的项目是前后端分离的,后端用spring套装,前端用vue,是两个项目,最终部署时,需要把vue打的包dist文件夹的内容放到webapps目录下,然后后端项目再用maven命令打成war包。以前的过程是这样的:进入前端项目,执行npm run build拷贝dist文件夹的东西到后端项目的webapps目录下后端执行maven命令打包:clean compile package -Dskip
kafka接收不到数据一直都没有写博客,老是索取,没有回报,从今天开始记录每天碰到的问题。