背景我司使用的是亚马逊厂商的云服务,厂商的消息队列产品我们并没有用,我们选择自建 , 自建的好处是更灵活 , 定制性更广 。公司内部有多套Kafka集群 , 100+broker节点,针对kafka我司也有比较完善的自动化运维管理体系,最近出现过一次业务连接kafka集群频繁超时的情况,在这里记录下处理过程,加深对网络知识的理解 。
问题现象业务收到服务可用性下降报警,分析日志发现是连接亚马逊kafka集群有频繁超时 , 超时日志如下:
文章插图
基本分析
- 影响因素:多台主机同时报警,排查单台主机问题 。
- 集群检查:立即确认kafka集群以及涉及到topic健康状态 。集群状态正常,收发消息正常 , 压力负载正常;topic读写正常 。
- 变更操作:近期未做关于kafka的任何变更操作,排查变更影响 。
- 确定影响范围:确认其他业务是否有超时情况 。大部分业务反馈未出现超时情况,问题规模限定在当前业务 。
# 客户端(抓所有和kafka节点通信的网络数据包)nohup tcpdumpport 9092 -w kafka.pcap & # 服务端(抓所有和客户端主机通信的数据包)nohup tcpdump host 10.66.67.166 -s0 -w 10.66.67.166.pcap &
【网络故障的隐形元凶:MTU配置你了解吗?】说明: 开启抓包后 , 在客户端主机过滤超时日志,出现超时后即可停止抓包操作 。数据包分析
- 错误日志:
- 2023-05-24 20:46:29.947 kafka client/metadata got error from broker while fetching metadata: read tcp 10.66.67.166:37272->10.68.0.151:9092: i/o timeout
- 客户端报文
文章插图
- 服务端报文
文章插图
- 报文分析
- 客户端报文:
- 在序号为793以上的报文都收到了服务端的响应,而且可以看到使用的是kafka协议进行了消息的投递(kafka produce respone) 。
- 在序号为794的时候 , 客户端发送了7个长度是8514的tcp报文,未看到服务端的回应 。
- 在序号是803 , 804的时候,客户端又发送了2个长度的tcp报文 。
- 从序号是807开始,发现客户端重传了之前发送的所有长度是8514的tcp报文 。(丢包了 。客户端未收到服务端的响应所以重传了) 。
- 服务端报文 。
- 从服务端看,客户端前面的几个tcp报文都被服务端正常处理 。(前面的报文长度都很?。?小于1000) 。
- 客户端发送的9个长度为8514的包,服务端根本没收到 。
- 服务端等待了60s后,关闭了tcp连接 。(服务端配置的空闲连接时间就是1min,符合预期) 。
- 被丢弃的数据报长度都比较大,是否是报长度过大的问题?
- 查询机器的网卡mtu配置,发现是9001(TCP/IP 巨型?。??随机使用ping命令指定size进行测试 。
- TCP 最大段大?。∕ax Segment Size,MSS)是会根据网卡设置的mtu值决定 , 即使设置的是9001,测试最大MSS最大支持到8468,超过后就直接丢了 。
文章插图
- 对比测试规律总结
- 腾讯、阿里主机(mtu=1500):因为网卡配置的都是1500,所以不存在报过大丢弃的情况 。
- 亚马逊主机(mtu=9001):包大于8468后,就会直接丢弃(问题产生在新老账户通信上) 。
推荐阅读
- 一图看懂四种接收实时数据更新的设计
- 深入Rust的模式匹配与枚举类型
- 让你开发更舒适的 Tailwind 技巧
- 深入探索Python itertools库的五大常用方法
- Linux中sed命令的五个高级用法
- 证件照换底色非常实用的方法
- ComfyUI入门教程
- 深度学习中的图像生成对抗攻击与防御方法综述
- 多次混淆加密JS代码能得到不同的结果吗?
- 风力发电的原理