logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Alibaba Druid连接池中 maxActive,maxWait,maxAge,testOnBorrow,testWhileIdle等选项的作用...

1、连接池大小及性能选项maxActive:最主要参数,配置连接池同时能维持的最大连接数,如果客户端理论上需要100个连接,则这个值设为100。maxIdle:客户端一段时间内不需要使用连接,如果一直把所有连接池中的所有连接都维持在活动状态是很浪费资源的,如果客户端没有需求,那么最多维持maxIdle个空闲连接。minIdle:和maxIdle类似,最多维持多少个空闲连接,即使客户端没有需...

#java#mysql#数据库 +2
Windows 系统【win 10】查看 哪个进程在使用某个文件

前提今天要删除一个文件夹,但是却提示文件夹或文件被另一个程序占用了:这种情况在Linux中就是lsof,但是在Windows系统中就比较隐秘:1. 打开任务管理器2.打开资源监视器3.搜索相应的文件名然后右键,结束进程就可以了...

MySQL中的BLOB类型

1、MySQL有四种BLOB类型:tinyblob:仅255个字符blob:最大限制到65K字节mediumblob:限制到16M字节longblob:可达4GB2、除了类型对后面存取文件大小有限制,还要修改mysql的配置文件。  Windows、linux基本一样通过修改文件my.ini或my.cnf文件,在文件中增加 max_allowed_packet=10M(就是最大10...

#数据库#mysql#hibernate +1
FlinkSql 消费kafka 写入MySQL demo

from pyflink.datastream import StreamExecutionEnvironment, TimeCharacteristic, CheckpointingModefrom pyflink.table import StreamTableEnvironm

Flink消费Kafka数据时指定offset的五种方式

下面是Flink读取Kafka数据的代码,其中就有五种读取offset的方式,并配置相应的介绍final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.enableCheckpointing(5000);env.setStreamTimeCharacteri...

#kafka#flink#大数据 +2
Kafka 消费者远程读不到数据

kafka远程消费不到数据,但是也不报错远程主机用telnet命令去测试kafka以及zookeeper节点的9200端口以及2181端口都畅通。这是因为没有配置advertised.host.name,所以kafka获取ip信息的时候使用的是java.net.InetAddress.getCanonicalHostName(),在linux下该方法获取的是主机名。说明:在老版本的kafk...

#linux#kafka#zookeeper +2
Flink 中 hive sink 报错 UnknownHostException:nameservices1

问题:我这边集群是cdh的。 配置了hdfs ha模式在使用 kafka sink 到hive 时候找不到nameservices请问 在ha模式下 应该怎么配置报错信息:java.lang.IllegalArgumentException: java.net.UnknownHostException: nameservices1解决办法可以在flink-conf.yaml中加入 env.hado

Kafka水位(high watermark)与leader epoch的讨论

本文主要讨论0.11版本之前Kafka的副本备份机制的设计问题以及0.11是如何解决的。简单来说,0.11之前副本备份机制主要依赖水位(或水印)的概念,而0.11采用了leader epoch来标识备份进度。后面我们会详细讨论两种机制的差异。不过首先先做一些基本的名词含义解析。水位或水印(watermark)一词,也可称为高水位(high watermark),通常被用在流式处理领域(比如...

kafka 修改副本数

本文完全参考官网:官网链接:https://kafka.apache.org/21/documentation.html#basic_ops_increase_replication_factor例如,以下示例将主题foo的分区0的复制因子从1增加到3。在增加复制因子之前,该分区的唯一副本存在于broker.id为5的节点上,我们将在broker.id为6和7的节点上各增加一个副本。第一步先...

#kafka#大数据#json +2
解决kafka集群由于默认的__consumer_offsets这个topic的默认的副本数为1而存在的单点故障问题

抛出问题:__consumer_offsets这个topic是由kafka自动创建的,默认50个,但是都存在一台kafka服务器上,这是不是就存在很明显的单点故障? 经测试,如果将存储__consumer_offsets的这台机器kill掉,所有的消费者都停止消费了。请问这个问题是怎么解决的呢?原因分析:由于__consumer_offsets这个用于存储offset的分区是由kafka服务...

    共 32 条
  • 1
  • 2
  • 3
  • 4
  • 请选择