
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
clickhouse 很多特殊的函数1. count计算行数或非NULL的行数。ClickHouse支持以下计数语法:COUNT(expr)COUNT(DISTINCT expr)COUNT()COUNT(*).使用COUNT需要注意如下两点:调用不带参数的函数(COUNT() 和COUNT(*))将返回所有的行。如果传递了表达式参数,只有表达式结果为非NULL的行被计数。COUNT函数返回结果的
1. 数值/日期类转换1.1 常规类型转换1.2 -OrZero系列1.3 -OrNull系列2. 字符串转换3. 通用的转换函数CAST(x, t)4. 时间相关转换1. 数值/日期类转换1.1 常规类型转换大类细类描述toInt(8|16|32|64)toInt8(expr)转换为有符号的整数,转换向零舍入(截断数字的小数位)。nan和inf未定义。toInt16(expr)toInt32(e

PPTMQ.pptx比较内容KafkaRabbitMQ定位设计定位系统间的数据流管道,实时数据处理用于实时的,对可靠性要求较高的消息传递上 例如:常规的消息系统、网站活例如:订单,交易,充值,流计性跟踪,监控数据基础对比成熟度成熟:日志领域成熟成熟所属社区/公司ApacheMozilla Public License社区活跃度高...

在kafka2.x及之前的版本当中,一直都需要依赖于zookeeper作为协调服务,kafka集群在启动的时候,也会向zookeeper集群当中写入很多重要的元数据,我们可以一起来看一下在kafka2当中保留在zk当中的元数据有哪些可以看到在zk当中保存了很多kafka集群的元数据信息/admin: 主要保存kafka当中的核心的重要信息,包括类似于已经删除的topic就会保存在这个路径下面/br
kafka 迁移kafka的迁移分为一个集群内数据迁移或者是不同集群内数据迁移,一. 同一个集群内broker 迁移原理相当于在一个集群内,将数据进行了快速copy的机制.不过是非常快的.应用场景broker 迁移 主要使用的场景是broker 上线,下线,或者扩容等.基于同一套zookeeper的操作.实践step1将需要新添加的broker 列表一并添加到kafka的集群中,这里就省略了, 怎
目录一.基本环境准备:python3.5+pipjava 1.8maven version >=3.3.0二.Pyspark Test1. pip install pyspark2.code(1)streaming3.执行脚本三.Flink Test1.构建python2.flink's 'stanalone ( 其他环境)3.pyflink.py4. 运行命令5. result:三.Map

# kafka source (simple json+debeizum json+复杂json)近期主要是我花时间一步步采坑实践出来的各种细节,发现官网很多文字和配置都误差. 所以本人本着真实可靠的实践操作来给予大家的文案.希望可以帮到你 .做实践之前,必须准备flink 环境 略java 环境 略sql-client 开启 略docker 环境. 以备各个组件的快速运行.一. kaf...
前言zookeeper是是分布式大数据平台的枢纽,没有了它,很多依赖它的分布式直接是无可奈何,它就像是一个催化剂一样,默默无闻的辅助着各类工具的稳定和运行. (kafka,habse ,clickhouse ,hdfs…).我这里简单描述 一下,zookeeper常用参数的细节优化一.配置1.配置snapshot文件清理策略autopurge.purgeInterval=1autopurge.pu