logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

flink mysql cdc到kafka

思路:1、创建flink mysql cdc表2、将order join products的结果写入到kafka表中。这样就相当于完成了,DWD中的事实表构建。写入到kafka中,等待消费构建DWS或者ADS。主要参考https://ververica.github.io/flink-cdc-connectors/master/content/快速上手/index.html安装flink1.3.5

#kafka#java#分布式
Flink1.11.1写入iceberg0.11.1验证

flinksql写入iceberg验证,包含kafka写入iceberg等。

#big data#flink#大数据
新版flume+kafka+storm安装部署

去年写了篇flume+kafka+storm的文章,最近重新回顾发现改动挺大的,就重新整理这篇文章。希望能帮上大家。架构图、组件介绍就不重复了,这篇文章重点将如何安装部署。需要源码的请留言。顺便打个广告:大数据工作室接活我们的团队leader是北京某金融公司的大数据负责人,带过hadoop spark impala storm等多个银行项目。团队成员现就职HP,vmware等企业。

flume+kafka+storm+mysql架构设计

架构图实时日志分析系统架构简介系统主要分为四部分:                       1).数据采集负责从各节点上实时采集数据,选用cloudera的flume来实现2).数据接入由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,选用apache的kafka3).流式计算

到底了