一、背景和痛点

在大数据场景应用中,业务不仅要计算数据结果,而且要保障时效性。目前,我司演化出两条链路。时效性高的数据走 Kafka、Flink 实时链路;时效性要求低的数据走 Spark 离线链路。上图简单描述了 B 站数据上报、处理和使用的链路。数据采集主要通过 APP 端上报的行为事件数据。服务端上报的日志数据会通过网关以及分发层,流式分发到大数据数仓体系内。

MySQL 中存储的业务数据,通过 Datax 周期性的批式同步到数仓内。时效性高的数据会通过 Flink+Kafka 进行流式计算。时效性低的数据通过 Spark+HDFS 进行批计算最后出仓到 MySQL Redis Kafka 的介质中,为 AI、BI 的模型训练、报表分析场景使用。

完整内容请点击下方链接查看: 

B 站构建实时数据湖的探索和实践-阿里云开发者社区

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《                          阿里云开发者社区用户服务协议》和《                          阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写                          侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容

 

Logo

大数据从业者之家,一起探索大数据的无限可能!

更多推荐