logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

toAppendStream doesn‘t support consuming update and delete changes which is produced by node XXX

在Flink sql进行测试输出, 想把 sql查询的结果Table 转为DataStream 然后进行打印当我们table.toAppendStream[Row]的时候 发现报错其实这个因为我们sql 查的那个动态表 是Mysql 这类源, 他们是可以进行update,delete,insert操作的。对于toAppendStream呢 是仅可以将追加流进行转换输出 比如kafka所以我们使用t

Flink Sql DDL创建kafka avro格式问题 (Caused by: java.lang.ArrayIndexOutOfBoundsException: 14 Flink avro)

按照官网给出模板进行搭建 创表create table dwd_pv_realtime(ip STRING ,uid STRING ,oid STRING ,`day` STRING) with('connector'='kafka','topic'='flink_test','properties.bootstrap.servers'='x','properties.group.id'...

#flink
到底了