
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
Flink Kafka Sink 源码分析
flink kafka sink 源码
toAppendStream doesn‘t support consuming update and delete changes which is produced by node XXX
在Flink sql进行测试输出, 想把 sql查询的结果Table 转为DataStream 然后进行打印当我们table.toAppendStream[Row]的时候 发现报错其实这个因为我们sql 查的那个动态表 是Mysql 这类源, 他们是可以进行update,delete,insert操作的。对于toAppendStream呢 是仅可以将追加流进行转换输出 比如kafka所以我们使用t
Flink Sql DDL创建kafka avro格式问题 (Caused by: java.lang.ArrayIndexOutOfBoundsException: 14 Flink avro)
按照官网给出模板进行搭建 创表create table dwd_pv_realtime(ip STRING ,uid STRING ,oid STRING ,`day` STRING) with('connector'='kafka','topic'='flink_test','properties.bootstrap.servers'='x','properties.group.id'...
到底了








