logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

MongoDB的runCommand方法

可以使用该方法运行所有原始数据库操作。

#mongodb#数据库#nosql
org.apache.flink.table.api.ValidationException

在使用flinkTableAPI开发的时候,执行SQL,使用insert overwrite时,提示DynamicTableSink of table 'default_catalog.default_database.xx' implements the SupportsOverwrite interface.这时我们需要在pom.xml文件中添加如下依赖,就可以解决:<dependenc

#apache#flink#scala
idea import spark.implicits._ 报红,无法导入

错误的代码def main(args: Array[String]): Unit = {SparkSession.builder().appName("Test DF").config("config.option", "some-value").getOrCreate()//import implicit DF,DSimport spark.im

#spark
MongoDB之MapReduce获取集合的所有字段

MongoDB MapReduce 查看MongoDB集合的所有字段

#mongodb#mapreduce#数据库
flink-cdc报错Caused by: org.apache.kafka.connect.errors.DataException

今天在使用flink-cdc进行项目开发的时候,提示Caused by: org.apache.kafka.connect.errors.DataException: fcreatetime is not a valid field name错误,这个字段明明是有的,为什么会提示无效字段名称。查看数据库发现他是大写的,我在引用的时候用的是小写,所以就提示如下错误信息。tips:flink-cdc里

#kafka#flink#apache
到底了