0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Linux网络访问慢?这个方法快速定位

dyquk4xk2p3d 来源:良许Linux 2023-01-13 09:21 次阅读

Linux 服务器中,可以通过内核调优、DPDK 以及 XDP 等多种方式提高服务器的抗攻击能力,降低 DDoS 对正常服务的影响。在应用程序中,可以使用各级缓存、WAF、CDN 等来缓解 DDoS 对应用程序的影响。

但是需要注意的是,如果 DDoS 流量已经到达 Linux 服务器,那么即使应用层做了各种优化,网络服务延迟一般也会比平时大很多。

因此,在实际应用中,我们通常使用 Linux 服务器,配合专业的流量清洗和网络防火墙设备,来缓解这个问题。

除了 DDoS 导致的网络延迟增加,我想你一定见过很多其他原因导致的网络延迟,例如:

网络传输慢导致的延迟。

Linux 内核协议栈数据包处理速度慢导致的延迟。

应用程序数据处理速度慢造成的延迟等。

那么当我们遇到这些原因造成的延误时,我们该怎么办呢?如何定位网络延迟的根本原因?让我们在本文中讨论网络延迟。

Linux 网络延迟

谈到网络延迟(Network Latency),人们通常认为它是指网络数据传输所需的时间。但是,这里的“时间”是指双向流量,即数据从源发送到目的地,然后从目的地地址返回响应的往返时间:RTT(Round-Trip Time)

除了网络延迟之外,另一个常用的指标是应用延迟(Application Latency),它是指应用接收请求并返回响应所需的时间。通常,应用延迟也称为往返延迟,它是网络数据传输时间加上数据处理时间的总和。

通常人们使用ping命令来测试网络延迟,ping是基于 ICMP 协议的,它通过计算 ICMP 发出的响应报文和 ICMP 发出的请求报文之间的时间差来获得往返延迟时间。这个过程不需要特殊的认证,从而经常被很多网络攻击所利用,如,端口扫描工具nmap、分组工具hping3等。

因此,为了避免这些问题,很多网络服务都会禁用 ICMP,这使得我们无法使用 ping 来测试网络服务的可用性和往返延迟。在这种情况下,您可以使用traceroute或hping3的 TCP 和 UDP 模式来获取网络延迟。

例如:

#-c:3requests
#-S:SetTCPSYN
#-p:Setportto80
$hping3-c3-S-p80google.com
HPINGgoogle.com(eth0142.250.64.110):Sset,40headers+0databytes
len=46ip=142.250.64.110ttl=51id=47908sport=80flags=SAseq=0win=8192rtt=9.3ms
len=46ip=142.250.64.110ttl=51id=6788sport=80flags=SAseq=1win=8192rtt=10.9ms
len=46ip=142.250.64.110ttl=51id=37699sport=80flags=SAseq=2win=8192rtt=11.9ms
---baidu.comhpingstatistic---
3packetstransmitted,3packetsreceived,0%packetloss
round-tripmin/avg/max=9.3/10.9/11.9ms

当然,你也可以使用traceroute:

$traceroute--tcp-p80-ngoogle.com
traceroutetogoogle.com(142.250.190.110),30hopsmax,60bytepackets
1***
2240.1.236.340.198ms**
3**243.254.11.50.189ms
4*240.1.236.170.216ms240.1.236.240.175ms
5241.0.12.760.181ms108.166.244.150.234ms241.0.12.760.219ms
...
24142.250.190.11017.465ms108.170.244.118.532ms142.251.60.20718.595ms

traceroute会在路由的每一跳(hop)发送三个数据包,并在收到响应后输出往返延迟。如果没有响应或响应超时(默认 5s),将输出一个星号*。

案例展示

我们需要在此演示中托管 host1 和 host2 两个主机:

host1 (192.168.0.30):托管两个 Nginx Web 应用程序(正常和延迟)

host2 (192.168.0.2):分析主机

host1 准备

在 host1 上,让我们运行启动两个容器,它们分别是官方 Nginx 和具有延迟版本的 Nginx:

#Officialnginx
$dockerrun--network=host--name=good-itdnginx
fb4ed7cb9177d10e270f8320a7fb64717eac3451114c9fab3c50e02be2e88ba2
#Latencyversionofnginx

$dockerrun--namenginx--network=host-itdfeisky/nginx:latency
b99bd136dcfd907747d9c803fdc0255e578bad6d66f4e9c32b826d75b6812724

运行以下命令以验证两个容器都在为流量提供服务:

$curlhttp://127.0.0.1


...

Thankyouforusingnginx.

$curlhttp://127.0.0.1:8080 ...

Thankyouforusingnginx.

host2 准备

现在让我们用上面提到的hping3来测试它们的延迟,看看有什么区别。在 host2 中,执行以下命令分别测试案例机的 8080 端口和 80 端口的延迟:

80 端口:

$hping3-c3-S-p80192.168.0.30
HPING192.168.0.30(eth0192.168.0.30):Sset,40headers+0databytes
len=44ip=192.168.0.30ttl=64DFid=0sport=80flags=SAseq=0win=29200rtt=7.8ms
len=44ip=192.168.0.30ttl=64DFid=0sport=80flags=SAseq=1win=29200rtt=7.7ms
len=44ip=192.168.0.30ttl=64DFid=0sport=80flags=SAseq=2win=29200rtt=7.6ms
---192.168.0.30hpingstatistic---
3packetstransmitted,3packetsreceived,0%packetloss
round-tripmin/avg/max=7.6/7.7/7.8ms

8080 端口:

#测试8080端口延迟
$hping3-c3-S-p8080192.168.0.30
HPING192.168.0.30(eth0192.168.0.30):Sset,40headers+0databytes
len=44ip=192.168.0.30ttl=64DFid=0sport=8080flags=SAseq=0win=29200rtt=7.7ms
len=44ip=192.168.0.30ttl=64DFid=0sport=8080flags=SAseq=1win=29200rtt=7.6ms
len=44ip=192.168.0.30ttl=64DFid=0sport=8080flags=SAseq=2win=29200rtt=7.3ms
---192.168.0.30hpingstatistic---
3packetstransmitted,3packetsreceived,0%packetloss
round-tripmin/avg/max=7.3/7.6/7.7ms

从这个输出中您可以看到两个端口的延迟大致相同,均为 7 毫秒。但这仅适用于单个请求。如果换成并发请求怎么办?接下来,让我们用wrk (https://github.com/wg/wrk) 试试。

80 端口:

$wrk--latency-c100-t2--timeout2http://192.168.0.30/
Running10stest@http://192.168.0.30/
2threadsand100connections
ThreadStatsAvgStdevMax+/-Stdev
Latency9.19ms12.32ms319.61ms97.80%
Req/Sec6.20k426.808.25k85.50%
LatencyDistribution
50%7.78ms
75%8.22ms
90%9.14ms
99%50.53ms
123558requestsin10.01s,100.15MBread
Requests/sec:12340.91
Transfer/sec:10.00MB

8080 端口:

$wrk--latency-c100-t2--timeout2http://192.168.0.30:8080/
Running10stest@http://192.168.0.30:8080/
2threadsand100connections
ThreadStatsAvgStdevMax+/-Stdev
Latency43.60ms6.41ms56.58ms97.06%
Req/Sec1.15k120.291.92k88.50%
LatencyDistribution
50%44.02ms
75%44.33ms
90%47.62ms
99%48.88ms
22853requestsin10.01s,18.55MBread
Requests/sec:2283.31
Transfer/sec:1.85MB

从以上两个输出可以看出,官方 Nginx(监听 80 端口)的平均延迟为 9.19ms,而案例 Nginx(监听 8080 端口)的平均延迟为 43.6ms。从延迟分布上来看,官方 Nginx 可以在 9ms 内完成 90% 的请求;对于案例 Nginx,50% 的请求已经达到 44ms。

那么这里发生了什么呢?我们来做一些分析:

在 host1 中,让我们使用tcpdump捕获一些网络数据包:

$tcpdump-nntcpport8080-wnginx.pcap

现在,在 host2 上重新运行wrk命令

$wrk--latency-c100-t2--timeout2http://192.168.0.30:8080/

当wrk命令完成后,再次切换回 Terminal 1(host1 的终端)并按 Ctrl+C 结束tcpdump命令。然后,用Wireshark把抓到的nginx.pcap复制到本机(如果 VM1(host1 的虚拟机)已经有图形界面,可以跳过复制步骤),用Wireshark打开。

由于网络包的数量很多,我们可以先过滤一下。例如,选中一个包后,可以右键选择 “Follow”->“TCP Stream”,如下图:

22e4abe4-92d2-11ed-bfe3-dac502259ad0.png

然后,关闭弹出的对话框并返回Wireshark主窗口。这时你会发现Wireshark已经自动为你设置了一个过滤表达式tcp.stream eq 24。如下图所示(图中省略了源 IP 和目的 IP):

23127362-92d2-11ed-bfe3-dac502259ad0.png

从这里,您可以看到从三次握手开始,此 TCP 连接的每个请求和响应。当然,这可能不够直观,可以继续点击菜单栏中的 Statistics -> Flow Graph,选择 “Limit to display filter”,将 Flow type 设置为 “TCP Flows”:

23256d8c-92d2-11ed-bfe3-dac502259ad0.png

请注意,此图的左侧是客户端,而右侧是 Nginx 服务器。从这个图中可以看出,前三次握手和第一次 HTTP 请求和响应都相当快,但是第二次 HTTP 请求就比较慢了,尤其是客户端收到服务器的第一个数据包后,该 ACK 响应(图中的蓝线)在 40ms 后才被发送。

看到 40ms 的值,你有没有想到什么?事实上,这是 TCP 延迟 ACK 的最小超时。这是 TCP ACK 的一种优化机制,即不是每次请求都发送一个 ACK,而是等待一段时间(比如 40ms),看看有没有“搭车”的数据包。如果在此期间还有其他数据包需要发送,它们将与 ACK 一起被发送。当然,如果等不及其他数据包,超时后会单独发送 ACK。

由于案例中的客户端发生了 40ms 延迟,我们有理由怀疑客户端开启了延迟确认机制(Delayed Acknowledgment Mechanism)。这里的客户端其实就是之前运行的 wrk。

根据 TCP 文档,只有在 TCP 套接字专门设置了 TCP_QUICKACK 时才会启用快速确认模式(Fast Acknowledgment Mode);否则,默认使用延迟确认机制

TCP_QUICKACK(sinceLinux2.4.4)
Enablequickackmodeifsetordisablequickackmodeifcleared.Inquickackmode,acksaresentimme‐
diately,ratherthandelayedifneededinaccordancetonormalTCPoperation.Thisflagisnotperma‐
nent,itonlyenablesaswitchtoorfromquickackmode.SubsequentoperationoftheTCPprotocolwill
onceagainenter/leavequickackmodedependingoninternalprotocolprocessingandfactorssuchas
delayedacktimeoutsoccurringanddatatransfer.Thisoptionshouldnotbeusedincodeintendedtobe
portable.

让我们测试一下我们的质疑:

$strace-fwrk--latency-c100-t2--timeout2http://192.168.0.30:8080/
...
setsockopt(52,SOL_TCP,TCP_NODELAY,[1],4)=0
...

可以看到wrk只设置了TCP_NODELAY选项,没有设置TCP_QUICKACK。现在您可以看到为什么延迟 Nginx(案例 Nginx)响应会出现一个延迟。

结论

在本文中,我将向您展示如何分析增加的网络延迟。网络延迟是核心网络性能指标。由于网络传输、网络报文处理等多种因素的影响,网络延迟是不可避免的。但过多的网络延迟会直接影响用户体验。

使用hping3和wrk等工具确认单个请求和并发请求的网络延迟是否正常。

使用traceroute,确认路由正确,并查看路由中每个网关跳跃点的延迟。

使用tcpdump和Wireshark确认网络数据包是否正常收发。

使用strace等观察应用程序对网络 socket 的调用是否正常。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 内核
    +关注

    关注

    3

    文章

    1336

    浏览量

    40070
  • Linux
    +关注

    关注

    87

    文章

    11120

    浏览量

    207832
  • DDoS
    +关注

    关注

    3

    文章

    166

    浏览量

    23007
  • 服务器
    +关注

    关注

    12

    文章

    8680

    浏览量

    84478
  • 网络
    +关注

    关注

    14

    文章

    7383

    浏览量

    88188

原文标题:Linux 网络访问慢?这个方法快速定位

文章出处:【微信号:良许Linux,微信公众号:良许Linux】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    网站用户终于解决访问网站的问题

    很慢,但是南方的朋友访问均是速度非常快的.唉,知道这个是南方网通互通的问题.一直没有想到很好的解决方法.直到去年11月份在网上看到有双线主机这一回事,据说可以解决这个问题,但那时候好像
    发表于 08-03 15:47

    巧妙解决Windows XP网络访问的难题

    始终会显示一个“安全删除硬件”的图标。这是nforce芯片组在安装了IDE-SW主板驱动以后,系统会把SATA硬盘识别为可移动设备,每次开机后都会显示这个图标。 图 安全删除硬件  清除方法:  打开
    发表于 08-13 09:45

    【转载】快速追踪和定位产生HardFault原因的方法

    AN0028—快速追踪和定位产生HardFault原因的方法概述在使用ARM Cortex-M 系列 MCU时(如AT32 MCU),有时会出现程序运行异常。当通过编译器在debug模式查原因
    发表于 08-17 09:44

    有什么方法可以快速定位电源/地阻抗存在的问题吗?

    有什么方法可以快速定位电源/地阻抗存在的问题吗?
    发表于 05-08 07:02

    有什么方法可以从ESP8266访问Linux共享?

    有什么方法可以从我的 ESP8266 访问 Linux 共享? 我想根据一两个文件的状态点亮一些 LED。
    发表于 06-02 08:37

    快速定位DMA访问外设寄存器地址

    快速定位DMA访问外设寄存器地址快速定位DMA访问外设寄存器地址
    发表于 10-19 08:14

    基于USB设备的Linux网络驱动程序开发

    介绍Linux 的体系结构及其网络子系统,并结合USB 设备在Linux 下的访问机制,给出了一种USB 网络驱动程序的设计
    发表于 08-11 11:23 20次下载

    脉冲快速充电方法有效控制电池极化的研究

    脉冲快速充电方法有效控制电池极化的研究:本文以铅酸电池为例着重介绍了脉冲快速充电方法有效控制
    发表于 10-01 14:22 55次下载

    Linux的常用网络命令

    Linux的常用网络命令 Linux 的常用网络命令  计算机网络的主要优点是能够实现资源和信息的共享,并且用户可以远程
    发表于 01-18 12:47 1154次阅读

    电脑卡惹人烦 这五个妙招可以让Linux飞起来

    玩儿电脑最怕的就是卡,那么电脑卡应该怎么解决呢?对于windows系统来说,你可能有各种免费的杀毒软件、全家桶帮你清空系统空间,那么Linux系统怎么办?今天笔者就为大家介绍几种方法
    发表于 04-18 15:26 1440次阅读

    怎么快速入门linux

    这次我们该谈论什么? 这次让我们讨论一下这个Linux([inks])。 什么是Linux([Inks])? 这个Linux([inks])
    发表于 09-23 16:17 686次阅读

    为什么国内网站访问香港服务器网速

    网站有机会被网络速度、服务器性能、网站内容大小和网络编码影响访问速度, 导致网站卡顿影响业务运作, 以最为常见的问题是因为网络供应商不给力导致网络
    的头像 发表于 07-10 14:50 1842次阅读

    Linux服务器常见的网络故障排查方法

    日常工作中我们有时会遇到服务器网络不通问题,导致服务器无法正常运行。要想解决服务器网络故障问题,通常要先进行网络故障排查,这里以Linux服务器为例来看下常用的
    的头像 发表于 04-14 15:47 2612次阅读

    国外访问部署在国内SAP系统,云专线无视延迟

    当国外用户需要访问部署在国内的SAP系统时,可能会遇到连接速度的问题。这是由于跨国网络连接较远,网络延迟和带宽等问题所致。为了解决这些问题,企业可以使用多种技术来提高连接速度。 云专
    的头像 发表于 05-08 14:14 692次阅读

    linux文件访问权限怎么设置

    、权限的类型、权限的表示方法以及如何使用命令来设置文件访问权限。 一、Linux 文件访问权限的背景知识 在 Linux 中,每个文件和目录
    的头像 发表于 11-23 10:20 1248次阅读