logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

flink 消费kafka的数据出现异常排查

1、错误日志如下;{"timestamp": "2022-01-27 17:07:55.680","host": "gd12-k8s-noah-vrc-prod001-node-s0384","message": "2022-01-27 17:07:49,041 INFOorg.apache.flink.kafka.shaded.org.apache.kafka.clients.FetchSess

#kafka#flink#分布式
flink 并行度和kafka分区的关系

1、目前flink的并行度如果大于kafka的分区,checkpoint可以正常执行成功,但是会存在某个并行度空转的情况。可以正常checkpoint2、而blink的并行度如果大于kafka的分区,checkpoint不能正常执行成功,checkpoint会失败, 如图,一直没checkpoint...

阿里云 blink 相关错误码问题解决

1、使用阿里云的flink平台是,有时重启任务会有shell cmd的报错信息,错误代码如下:Submit job for the [21] times,last error occurred at [Sun Jan 10 18:36:31 CST 2021],lastErrorMessage is as follows:run instance failed, BLINK error: baye

flink 消费kafka的数据出现异常排查

1、错误日志如下;{"timestamp": "2022-01-27 17:07:55.680","host": "gd12-k8s-noah-vrc-prod001-node-s0384","message": "2022-01-27 17:07:49,041 INFOorg.apache.flink.kafka.shaded.org.apache.kafka.clients.FetchSess

#kafka#flink#分布式
spark streaming消费kafka报错 Kafka ConsumerRecord is not serializable.Use .map to extract fields before

2020-04-15 15:56:50,026ERROR --- [streaming-job-executor-0]org.apache.spark.streaming.kafka010.KafkaRDD(line:70):Kafka Consume...

flink写入到kafka,只写入指定分区问题排查

背景:flink的datastream部署到线上时,发现数据只能写入到kafka的一些分区,其他分区没有数据写入。当把flink的并行度设置大于等于kafka的分区数时,kafka的分区都能写入数据。于是研究了一下源码。FlinkFixedPartitioner源码:package org.apache.flink.streaming.connectors.kafka.partitioner;im

#kafka#flink#big data
flink 性能压测

1、维表关联性能,最高吞吐,可以通过并行度和kafka的吞吐测出相关性能,如下图压测性能,200并发,tps正常在5w左右。2、之前kafka吞吐最高能达到90MB/s的输入,所以压测要达到两倍的性能,也就是200mb3、以下是同样的并行度,通过设置任务延迟,消费五个小时的数据, 来实现相关性能压测,200并发,最高吞吐tps能达到30w左右4、kafka的压测性能如下,写入稳定在250mb左右,

#flink#sql#java
Springboot 消费kafka报错 Group coordinator 10.3.1.xx:9095 (id: 2147473398 rack: null) is unavailable

1,目前消费kafka一直报如下错误:2020-08-19 20:23:16.279INFO [bigdata-openapi-app,,,] 4312 --- [main] o.a.k.c.c.internals.AbstractCoordinator: [Consumer clientId=consumer-1, groupId=BIGDATA_CACHE_USER_LASTVIDEO2_15

springboot使用多线程处理高并发接口

当线程增加到cpu的个数的时候,吞吐率会达到顶峰,

#java#开发语言
flinksql 读取kafka的key的字段,相关解析

1、因官网读取kafka的key结构文档说明比较复杂,研究半天才搞懂,特此进行记录-- 创建数据源表CREATE TEMPORARY TABLE `source_kafka` (`time` varchar,`distinct_id` varchar,`msgkey` varchar) with ('connector' = 'kafka','topic' = 'hulin_sink_test',

    共 13 条
  • 1
  • 2
  • 请选择