logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

flink中的join,coGroup和intervalJoin

1.joinDataStream<String> apply = infoDataStream.join(infoDataStream1).where(info -> info.getOrder_no()).equalTo(in -> in.getRequestId()).window(TumblingProcessingTimeWindows.of(Time.second

#flink#kafka#spark +1
springboot使用webSocket实现主动推送消息到前端

后端代码实现一个webSocket的服务端,消息精准推送和批量推送代码如下:@ServerEndpoint(value = "/websocket")@Component@Slf4jpublic class WebSocketServer {// 静态变量,用来记录当前在线连接数。应该把它设计成线程安全的。private static int onlineCount = 0;private sta

#java#spring
flink通过binlog实现mysql为数据源的实时计算

前提条件1.开通了mysql的binlog2.有flink的环境需要的依赖包<dependency><groupId>com.alibaba.ververica</groupId><artifactId>flink-connector-mysql-cdc</artifactId><version>1.3.0</versi

#flink#mysql#linux
K8S的单节点部署

部署前准备(需要root账号)节点主机名唯一,建议写入/etc/hosts禁止swap分区关闭防火墙root@haishu:/home/haishu# hostnamectl set-hostname k8s-masterroot@haishu:/home/haishu# tail /etc/hosts127.0.1.1haishu-System-Product-Name# The followi

#后端#java#intellij idea +1
flink流处理kafka和三方数据

场景:用户请求信息通过kafka到flink计算引擎,flink拿到请求信息后去查询三方数据处理,数据处理完成后把处理结果放回到kafka中。这里三方数据源两种:1.mysql数据源2.http三方接口项目地址:https://github.com/1105748319/flinkDemoTest.git下面直接上代码:主要的类:package com.flink;import org.apach

#flink#kafka#hdfs
flink1.11.2中Table & SQL连接kafka

#flink连接kafka并读取数据前提条件flink版本1.11.2直接上代码import org.apache.flink.api.common.functions.FlatMapFunction;import org.apache.flink.api.common.restartstrategy.RestartStrategies;import org.apache.flink.stream

#flink#kafka#hadoop +1
到底了