
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
MongoDB的runCommand方法
可以使用该方法运行所有原始数据库操作。
org.apache.flink.table.api.ValidationException
在使用flinkTableAPI开发的时候,执行SQL,使用insert overwrite时,提示DynamicTableSink of table 'default_catalog.default_database.xx' implements the SupportsOverwrite interface.这时我们需要在pom.xml文件中添加如下依赖,就可以解决:<dependenc
idea import spark.implicits._ 报红,无法导入
错误的代码def main(args: Array[String]): Unit = {SparkSession.builder().appName("Test DF").config("config.option", "some-value").getOrCreate()//import implicit DF,DSimport spark.im
MongoDB之MapReduce获取集合的所有字段
MongoDB MapReduce 查看MongoDB集合的所有字段
flink-cdc报错Caused by: org.apache.kafka.connect.errors.DataException
今天在使用flink-cdc进行项目开发的时候,提示Caused by: org.apache.kafka.connect.errors.DataException: fcreatetime is not a valid field name错误,这个字段明明是有的,为什么会提示无效字段名称。查看数据库发现他是大写的,我在引用的时候用的是小写,所以就提示如下错误信息。tips:flink-cdc里
到底了







