logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Socket技术详解(一篇就够了)

Socket原理1、什么是Socket在计算机通信领域,socket 被翻译为“套接字”,它是计算机之间进行通信的一种约定或一种方式。通过 socket 这种约定,一台计算机可以接收其他计算机的数据,也可以向其他计算机发送数据  socket起源于Unix,而Unix/Linux基本哲学之一就是“一切皆文件”,都可以用“打开open –> 读写write/read –> 关闭close

C++中vector容器为什么扩容时按照2倍或者1.5倍进行扩容

扩容机制首先在VS2013底下,vector的扩容操作是每次扩容*1.5;在GCC环境下是2倍。GCC下的扩容方式是以二倍形式扩容。VS2013下是以1.5倍进行扩容所以可能会有疑问:问题一:为什么非要以倍数的形式增长,而不是以个数的形式增长。问题二:为什么每次增长是1.5倍或者2倍形式,而不是3倍或者4倍形式增长。详解问题一倍数方式空间拷贝数据次数假设总共有n个元素,以m倍的形式增长。(比如现在

#c++
malloc 背后的虚拟内存 和 malloc实现原理

面试的时候经常会被问到 malloc 的实现。从操作系统层面来说,malloc 确实是考察面试者对操作系统底层的存储管理理解的一个很好的方式,涉及到虚拟内存、分页/分段等。下面逐个细说。1. 虚拟内存首先需要知道的是程序运行起来的话需要被加载的物理内存中,具体到计算机硬件就是内存条。操作系统启动的时候先把自己加载到物理内存的固定位置(一般为底部),物理内存的其他位置就用来运行用户程序。程序就是一堆

文章图片
#linux
kafka的key为null时如何存储

kafka producer发送消息的时候,可以指定key,这个key的作用是为消息选择存储分区,key可以为空,当指定key且不为空的时候,kafka是根据key的hash值与分区数取模来决定数据存储到那个分区,那么当key为null的时候,kafka又是如何存储的呢?可能很多人都会说随机选择一个分区进行存储,但是具体是怎么实现的呢?虽然可以这么说,但是还不够严谨,下面通过kafka的源码来解读

#kafka#大数据
kafka消费端慢慢延迟(网络带宽不足)

2020-09-29问题描述:线上业务出现推送延迟,启动测试工具订阅topic,能看到数据正常时间能对上(数据写进去了),用kafka自带的也能对上,通过分析后发现工具记录的日志在9点41分启动-9点50分之间出现了秒级延迟(最多延迟16秒)。通过阿里云监控发现有台kafka磁盘IO是38M,检查高效云盘磁盘IO吞吐量上限是140M/s,说明IO没问题。进一步发现网络流出带宽达到850M/s,和运

#kafka
kafka压力测试说明

1 整体环境说明1.1 硬件环境1、 磁盘:SATA磁盘2块,磁盘阵列为RAID12、 CPU****:2个4核CPU。具体参数:Intel(R) Xeon(R) CPU E5405 @ 2.00GHz3、 内存:8G(8*1G)4、 网卡:1000Mb/s1.2 软件环境1、 kafka版本:kafka_2.11-2.11.0.02、 kafka集群数量:33、 zookeeper版本:zook

#大数据#kafka
kafka 报错:kafka server:Message was too large ,server rejected it to avoid allocation

kafka报错信息:kafka server:Message was too large ,server rejected it to avoid allocationkafka版本:kafka_2.11-1.0.0原因分析:查看kafka配置,默认单条消息最大为1M,当单条消息长度超过1M时,就会出现发送到broker失败,从而导致消息在producer的队列中一直累积,直到撑爆生产者的内存。于

#kafka
Kafka顺序读写与零拷贝(kafka为什么这么快)

链接:https://zhuanlan.zhihu.com/p/78335525用kafka做存储层,为什么呢?一大堆可以做数据存储的 MySQL、MongoDB、HDFS……因为kafka数据是持久化磁盘的,还速度快;还可靠、支持分布式……啥!用了磁盘,还速度快!!!没错,kafka就是速度无敌,本文将探究kafka无敌性能背后的秘密。首先要有个概念,kafka高性能的背后,是多方面协同后、最终

#kafka
kafka开放公网端口被攻击

[2021-03-03 16:02:35,734] WARN [SocketServer brokerId=2] Unexpected error from /101.133.140.205; closing connection (org.apache.kafka.common.network.Selector)org.apache.kafka.common.network.InvalidRec

#kafka
kafka报错打开文件数过多导致kafka关闭

监控到业务异常,kafka异常查看kafka日志,发现大量错误日志:ERROR Error while accepting connection (kafka.network.Acceptor)java.io.IOException: 打开的文件过多lsof -p kafka-pid 看有上万个文件句柄使用自写的删除topic工具,删除一部分历史topic后,重启kafka,问题解决。之后继续删除

#kafka
    共 21 条
  • 1
  • 2
  • 3
  • 请选择