logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Flink 1.11.1:flink sql多表join

从kafka读取3个topic,join后写数据到clickhouse代码示例:val createTable ="""|CREATE TABLE nt_sale_order (|id VARCHAR,|write_date BIGINT,|create_uid INT,|name VARCHAR,|op VARCHAR|)|WITH (|'connector'

#flink
Debezium:数据实时采集从Kafka到phoenix

目的:构建基于hbase的实时数仓解决的问题:RDBMS到Hbase的数据实时采集,并写入Phoenix方法:Postgresql    ----->     Debezium     ----->     Kafka     ------>     Sparkstreaming    ------>     Phoenix本文:本文主要是从

#kafka#spark
Debezium:Spark Structured Streaming将Kafka的数据写入ElasticSearch

前言:1、数据流Mysql -> Debezium -> Kafka -> Structured Streaming ->ElasticSearch2、Mysql -> Debezium -> Kafka 参考https://blog.csdn.net/u012551524/article/details/8425

#elasticsearch#spark#kafka
Kafka Sql:简单使用

Confluent:5.3.1Confluent安装:https://blog.csdn.net/u012551524/article/details/103686739kafka:2.0.01、修改配置文件/data/software/confluent-5.3.1/etc/ksql/ksql-server.propertiesbootstrap.servers=bigdata-...

#kafka
Debezium:mysql connector安装

前言:debezium提供了多种基于kafka的连接器,方便对RDB做数据流处理,包括:MongoDB,Oracle,Mysql,SqlServer,Postgresql,可扩展性强,代码可控,本篇介绍基于mysql的安装使用插件版本:Kafka:CDK3.10 (相当于Kafka1.1版本),这里需要kafka 0.10以上版本才能支持Debezium:0.83Mysql:5...

#kafka#mysql
Flink代码示例(1):消费Kafka Demo

Flink: Blink分支 1.5.1https://github.com/apache/flink/tree/blinkMaven Dependency:<dependency><groupId>com.alibaba.blink</groupId><artifactId>flink-scala_2.11</a...

Debezium:数据类型numeric、decimal由PostgreSql输出到kafka后类型不匹配问题

环境:Debezium版本:0.8.3PostgreSql版本:9.5Kafka版本:CDK3.1.0(KAFKA:1.0.1)问题:Debezium从postgresql解析数据到kafka后,发现numeric类型数据输出格式异常,如下:{"scale":0,"value":"F3A="}原值为6000解决:需要配置参数,更新kafk

#kafka#postgresql
Flink 1.11.1:table sql Kafka Connector支持Upsert写入

flink版本:1.11.1文章目录目的测试的代码flink本身的Kafka Connector重新定义一个支持Upsert的Kafka Connector Sink编译打包替换jar包并测试目的在使用flink table sql的情况下,使kafka connector sink支持upsert正常写入测试的代码val fsSettings = EnvironmentSettings.newI

#flink
Debezium:mysql connector使用

前言:mysql connector支持功能:1、数据流式处理2、支持多种模式mysql集群的数据处理3、支持流复制异常中断后的数据自动恢复4、支持DDL级别操作的数据流处理备注:本文以kafka单节点开发环境为例,多节点分布式连接器相似,参考:https://blog.csdn.net/u012551524/article/details/83349324插件版本:...

Debezium:kafka 连接器配置

目的:构建基于hbase的实时数仓解决的问题:RDBMS到Hbase的数据实时采集方法:Postgresql----->Debezium----->Kafka------>Sparkstreaming------>Phoenix本文:本文主要是kafka连接器一些相关配置官网参考地址...

#kafka#postgresql
    共 18 条
  • 1
  • 2
  • 请选择