
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
他们美其名曰要尊重当前标准,复用当前接口,以此为理由,结果又回到以太网那一套,复用了标准,也继承了缺陷,绕了一个圈,到头来,在这里省下来的,还得到那里加倍还回去,然后嘴硬不承认,反而说这是个创新,又一个世界第一等。要么直接做完备,要么怎么都做不完备,这背后存在一种缺陷哲学,一开始做不完备是因为有缺陷,同样因为该缺陷,日后怎么做还是做不完备。遗憾的是,AIMD,BBR,ECN,PFC 都是反应式的,

另一方面,Vegas 作为 Delay-based cc 代表,识别拥塞的能力一流,但却被先入为主的 AIMD 压制,无法与其共存,这也是硬伤,背后的原因是 Vegas 没有负反馈动力学基础,仅仅基于不精确的测量,本质上还是端不识网。前面提到过,AIMD 已经足够优秀,迄至 CUBIC 已臻于完美,但它还是无法甄别非拥塞随机丢包,导致随机丢包时表现力不够,这可以认为是硬伤,背后的原因就是信息不足,

如果 n = 1,为了照顾人有限的肺活量,气球容量必须至少等于人的最大肺活量,且吹得太快容易爆裂,吹得太慢换气时出气孔没气体,但 n = 3 时,一个人换气时,另外 2 人可能依然保持吹气,就这样让 n 不断增大。更直观的例子是非牛顿流体,不管形状如何,只要质量相同,在重力的作用下,它们最终肯定占据相同的占地面积,因为重心高了,重力会拉低它,将高度补偿给面积后,拉低的力度逐渐变弱,最终大家一致,就

AI 虽好,但它不是万能的,AI 能快速搞定常见的范式编程问题,哪怕写一个极其复杂的逻辑,只要范式化,AI 都非常擅长,但这并不意味着它能正确回答该过程中的疑问,特别是冷门疑问。AI 特别擅长组织逻辑和语言,让你觉得它缜密到无懈可击,认为它是对的,这恰恰说明逻辑和语言本身就是一个大范式,正如它名字所展示,大语言模型。不是 AI 不会本文描述的问题,而是它没见过,但即使它没见过,它也要发挥它遣词造句

TCP 本身具有很强的可扩展性,从不到 1Mbps 的带宽适应到 200Gbps,在 100Mbps 之下,TCP 表现很好,从 100Mbps 长肥管道到 25Gbps,TCP 被普遍诟病但却依然适应良好,过了 40Gbps,性能瓶颈转移到了主机,但这些都不是协议的问题,200Gbps + TCP Reno + TSO/LRO + GBN + BigTCP + ZeroCopy 或许真比 200

我曾说网络传输优化,拥塞控制更体现为一个社会学问题而不是一个纯技术问题,所以自然也就没有确定那一剂苦口良药。但依然可以通过一些社会学模型去认识这类问题的本质,从而逼近更好的解法。为什么拥塞一定会发生,为什么 buffer 一定会被填满,为什么带宽一定会被用尽,为什么路上一定有车,这些问题本质上都是同类问题,背后的动力学是同一个。我从 Little 系统(满足 Little 定律的系统)和社会物理学

BBR 的公平收敛来自于两点:详情参见:有趣的TCP BBR ProbeRTT行为点滴但还是复杂了,写个简单的解释。排队论模型,排队时间为: T=1/(μ−λ)T=1/(μ−λ)T=1/(μ−λ) ,T 作为 RTT 的一部分,λ 为 Pacing Rate, μ 为Delivery Rate, μ一定,作图如下:这是双曲线的一支。ProbeBW 加速比描述为增加单位 inflight 带来 D
如今 Infiniband 和融合以太网(CE)之争早在 20 多年前就发生过一次,IB 像极了当时的 ATM,这次的以太网依然可能再次胜出,虽然可能会不再那么容易。本文谈谈一些关于流控的思考。从能耗视角看,相比于简单丢包后重传,缓存数据包被认为更高效。假设重传和缓存引入相同的时延,丢包重传意味着一次无效的传输,而缓存数据包的能量则消耗在存储单元,但缓存数据包无需依赖准确的丢包检测和重传算法。因此

任意一次丢包重传都伴随无用功,如果事前知道这次丢包,就没必要发它,Internet 端到端方法因为哑铃模型无法给出拥塞信息,或获取这信息时间成本很高,只能 “猜,试”,但这信息在数据中心内部非常易得,最多一个 RTT 的资源预留一定在应用容忍范围:这么想,端到端方案一定会遭遇丢包重传而浪费至少一个 RTT,如果应用不能容忍一个 RTT,就别用了。对分组交换域,采用合适大小 buffer 及流控算法
