logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一种基于Redisson实现简单的分布式定时任务执行方案

一般在springcloud下单机执行定时任务的代码@EnableSchedulingpublic class TestTask {@Scheduled(cron = "0 * * * * ?")public void test() {System.out.println("say hello");}}但因为微服务下一般是多实例部署,会导致定时任务多个实例同时执行的情况。通过对EnableSche

#分布式#java#spring
springboot生产环境不加载classpath:application.properties,重新指定文件

最近一次生产环境部署,发现线上的zookeeper中注册的ip地址为测试环境的ip,然后查看了程序里的/src/main/resources/application.properties,发现开发人员在配置了spring.cloud.zookeeper.discovery.instance-host=192.168.1.128但是 线上的配置文件没有覆盖配置,线上启动后依然是192.16...

Spring Cloud微服务 优雅停止

Spring Cloud微服务 优雅停止

#spring
flink sql 处理自定义json解析

最近要把公司flinknginx日志入库的代码,修改成flinksql的方式执行。这样日志的入库通过sql更加方便。但是flinksql没有提供对json的解析方式,而nginx日志又是json字符串无法完全使用sql来完成日志的入库。因此,需要修改flink来完成json的自定义解析。首先定义source表CREATE TABLE kafka (json_data string,type str

#flink
centos7 k8s安装记录

masterhostnamectl set-hostname k8s-masterhostnamectl --static #查看设置结果systemctl stop firewalld.servicesystemctl disable firewalld.service#关闭swapswapoff -a#安装dockeryum install -y yum-utils device-mapper

#kubernetes
flink sql 处理自定义json解析

最近要把公司flinknginx日志入库的代码,修改成flinksql的方式执行。这样日志的入库通过sql更加方便。但是flinksql没有提供对json的解析方式,而nginx日志又是json字符串无法完全使用sql来完成日志的入库。因此,需要修改flink来完成json的自定义解析。首先定义source表CREATE TABLE kafka (json_data string,type str

#flink
canal五部曲-如何处理insert幂等性的

canal使用了Rocketmq来接收mysql采集的binlog的事件,做到采集和处理的解耦。同时满足一次采集多方消费的需求。那么既然使用到Rocketmq就一定会存在MQ消费超时或是处理失败MQ重发的问题。

文章图片
#java
滴滴Chameleon 全局事件 EventBus

Android:@CmlModule(alias = "event")public class EventModule {private Map<String, Map<String, CmlCallback<JSONObject>>> callbackMap = new HashMap<>();@CmlMethod(alias = "on")pub

到底了