
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
flink mysql cdc到kafka
思路:1、创建flink mysql cdc表2、将order join products的结果写入到kafka表中。这样就相当于完成了,DWD中的事实表构建。写入到kafka中,等待消费构建DWS或者ADS。主要参考https://ververica.github.io/flink-cdc-connectors/master/content/快速上手/index.html安装flink1.3.5
Flink1.11.1写入iceberg0.11.1验证
flinksql写入iceberg验证,包含kafka写入iceberg等。
新版flume+kafka+storm安装部署
去年写了篇flume+kafka+storm的文章,最近重新回顾发现改动挺大的,就重新整理这篇文章。希望能帮上大家。架构图、组件介绍就不重复了,这篇文章重点将如何安装部署。需要源码的请留言。顺便打个广告:大数据工作室接活我们的团队leader是北京某金融公司的大数据负责人,带过hadoop spark impala storm等多个银行项目。团队成员现就职HP,vmware等企业。
flume+kafka+storm+mysql架构设计
架构图实时日志分析系统架构简介系统主要分为四部分: 1).数据采集负责从各节点上实时采集数据,选用cloudera的flume来实现2).数据接入由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,选用apache的kafka3).流式计算
到底了