logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

java.lang.ClassNotFoundException: org.apache.hive.service.cli.thrift.TCLIService$Iface

今天编译安装了kettle8.3.10-R版本,然后连上公司的hadoop环境,测试hive2连接时报错:错误连接数据库 [hive_hdp] : org.pentaho.di.core.exception.KettleDatabaseException:Error occurred while trying to connect to the databaseError connecting t

#hive
springboot启动报错:org.yaml.snakeyaml.error.YAMLException: java.nio.charset.MalformedInputException

所以这个问题的原因多半是target目录下复制生成的yml配置文件有问题,可以找到这个文件打开检查一下,或者直接删除,重新启动生成该文件。这个错误的原因是yml配置文件加载有问题,但是加载的不是src目录下的配置文件,而是target/classes目录下的配置文件。

文章图片
#java#spring boot#nio
kafka设置从指定偏移量读取数据失效

  今天公司etl组件kafkaoutput从指定偏移量读取数据失效,还是从最新的偏移量开始读取数据,检测发现是因为auto.offset.reset属性在作怪,这个属性默认是latest,说明如下:  该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下(因消费者长时间失效,包含偏移量的记录已经过时并被删除)该作何处理。它的默认值是latest,意思是说,在偏移量无效的情况下,消.

#kafka
不同版本的jenkins迁移合并

废话不多说,直接开始吧:场景:有新旧两个jekins,旧的jekins是2.200版本,上面有80个左右的任务;新的jekins是2.303版本,上面有40个任务;现在要把旧版的80个任务迁移到新版里面。涉及合并的东西包括:系统配置,缺失的插件,所有的job。ps:中途看到网上很多人用的job import plugin来合并任务, 我也试了一下,根本导不过来。感觉就是个垃圾插件。一,先备份,为自

#jenkins#运维#java
linux启动kettle报错 java.lang.UnsatisfiedLinkError: Could not load SWT library

启动环境为linux的centos6.8,cpu架构为x86_64.Exception in thread "main" java.lang.UnsatisfiedLinkError: Could not load SWT library. Reasons:no swt-pi-gtk-3659 in java.library.pathno swt-pi-gtk in java.library.pa

#linux#数据仓库
jenkins使用pipeline部署maven项目(简单版)

直接使用ssh命令打包、上传、部署,流水线脚本如下:pipeline {agent anytools {// Install the Maven version configured as "M3" and add it to the path.maven "M3"}stages {stage('Build') {steps {// Get some

#maven#java#ssh
xxljob的客户端如何把logger的日志输出到任务实例的执行日志中

xxljob是一个非常简单易用的国产调度工具,它分为调度器和执行器。其中调度器是一个web系统,可以管理任务和查看日志。我们经常使用xxljob来做微服务的任务调度,但是在服务中,我们的执行器可能就是一个方法,这个方法中可能层层嵌套有大量的logback(log4j没有试)的logger打印日志的代码,我们怎么让xxljob的web管理端可以看到这些logger打印的日志呢?原理就是利用logba

#java#开发语言#后端
druid如何打印可执行sql?

druid数据源配置中修改一下如下配置:connectionProperties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000;druid.log.conn=false;druid.log.stmt=false;druid.log.rs=false;druid.log.stmt.executableSql=true解释:druid.

#sql#java
maven+vue前后端分离项目使用idea自动化打war包

公司的项目是前后端分离的,后端用spring套装,前端用vue,是两个项目,最终部署时,需要把vue打的包dist文件夹的内容放到webapps目录下,然后后端项目再用maven命令打成war包。以前的过程是这样的:进入前端项目,执行npm run build拷贝dist文件夹的东西到后端项目的webapps目录下后端执行maven命令打包:clean compile package -Dskip

#java#vue.js
kafka接收不到数据

kafka接收不到数据一直都没有写博客,老是索取,没有回报,从今天开始记录每天碰到的问题。

#kafka
    共 12 条
  • 1
  • 2
  • 请选择