如何检测服务器的速度

如何检测服务器的速度,第1张

不管是虚拟主机还是服务器,我们都知道,它的稳定性很重要,访问速度也有着决定性的作用。一般来说,如果访问速度不好的话,会让网站加载非常慢。那么如何检测服务器的响应速度

第一:常见的ping命令。一般来说,网站速度不好,或者测试一下是网站问题还是服务器问题,都会使用这个命令进行测试。那么具体怎样检测租用服务器的网络是否通畅无延迟呢?在电脑中点击开始,运行,然后输入CMD打开DOS命令窗口。然后输入网站网址,或者服务器的IP地址,格式为ping 域名,或者ping IP。使用ping命令后,会反馈一个结果,这个结果基本包括了以下几个信息。Time,这个是响应时间,时间越小越好,国内服务器响应时间一般在30-80ms之间。TTL,这个叫生存时间,每经过一个节点,ttl值就会少1,到0的时候就消失了,是为了防止数据无限的在互联网循环,浪费网络资源。数据包发送信息,这个里面有个丢包率,数值越小越好,正常都是显示丢失0。

第二:tracert命令。测试方法与ping命令类似,只是将ping 换成tracert,不过这个命令可以用来检测终端用户到服务器机房的跳数及响应时间,换句话说,就是可以测试出服务器与全国客户的连接速度。显示时间也是以ms为单位,时间越短越好。

第三:比网站加载速度。可以利用WhichLoadsFasterFastSoft工具测试一下打开网站速度。基本工作原理是通过连接,在浏览器中让两个真实的网页显示出来,反应的结果就是两个网站真实打开速度对比。

第四:网站速度测试工具。一些测试工具,能够提供相关的网站速度提升建议,站长可以根据这些建议优化站点。然后再逐一找到加载速度变慢的原因。

最近测试LVS性能,发现当CPU其中一个核耗尽后系统达到性能顶峰。 消耗CPU资源的是ksoftirqd进程,全部用于处理软中断(从进程名也能识别出了)。
搜了一下,很多人都遇到这类问题,似乎也没有解决。了解到并尝试过的解决方案有:
1、减少集群成员的数量;
2、修改集群模式(NAT、TURNL、DR);
3、修改集群调度算法;
4、升级 *** 作系统内核到2620以上;
5、调整网卡的最大传输单元(MTU);
6、修改设备中断方式;
7、使用多网卡负载均衡;
8、升级硬件(网卡);
9、更换 *** 作系统。

一一解说如下吧:
第1点 :减少集群成员的数量。由于瓶颈不在真实服务器上,所以减少成员数量,lvs性能没有明显变化。
第2点 :修改集群模式。理论上DR模式是最省资源的,大概了解理论的朋友应该都知道。由于NAT模式不满足需求,故仅对比了DR和TUN模式,两者没有明显区别。
第3点 :修改集群调度算法。已有的十种算法中属rr最简单,而且目前瓶颈还未深入到这一层。实际上在处理网络包的时候导致的瓶颈。调度算法简单比较了rr和wrr,两者没有明显区别。
第4点 : 升级 *** 作系统内核到2620以上 。我直接升级到当前已发布的最新版本2634,结果瓶颈并没有得到改善。
第5点:调整网卡的最大传输单元。交换机支持最大的传输单元是9216,将网卡的最大传输单元分别修改为:1500(默认)、5000、9000、9216。其中1500和5000两者没有明显差别,9000和9216会导致网络不稳定,性能也没有提高反而出现大量连接超时。
第6点:修改设备中断方式。通过修改设置中断/proc/irq/${网卡中断号}/smp_affinity:
测试服务器CPU为四核,理论上网卡的smp_affinity值为1、2、4、8分别对应cpu0、cpu1、cpu2、cpu3。
结果:
1、网卡的smp_affinity默认值为8,测试过程中软中断全部由cpu3处理。正确
2、设置smp_affinity = 1,测试过程中软中断全部由cpu0处理。正确
3、设置smp_affinity = 2,测试过程中软中断全部由cpu1处理。正确
4、设置smp_affinity = 4,测试过程中软中断全部由cpu2处理。正确
5、设置smp_affinity = 5,测试过程中软中断全部由cpu0处理,预期应该分配给cpu0和cpu2处理。无效
6、设置smp_affinity = f,测试过程中软中断全部由cpu0处理,预期应该分配给cpu0、cpu1、cpu2和cpu2处理。无效
即:修改smp_affinity的功能只针对单核有效。
第7点:使用多网卡负载均衡。此方案可行!使用两张网卡绑定一个IP地址,性能就提升了一倍,效果非常明显。原因就是两张网卡各用一个CPU核,相比用单核而言,性能自然提升一倍。
配置方式如下:

第8点 ,升级硬件,使用支持RSS功能的网卡。
下面是 intel 对RSS的说明

Receive-side scaling (RSS) routes incoming packets to specific queues, efficiently balancing network loads across CPU cores and increasing performance on multi-processor systems RSS, called Scalable I/O in Linux, creates a hash table from IP, TCP, and Port Addresses and uses that table to decide which queue to route a packet to, and to which processor the packet should be associated
可是从我们使用网卡的官网硬件指标上,都是支持RSS的。Windows的设置方式是 netsh int tcp set global rss=enabled 。

第9点 ,更换 *** 作系统。此方案在生产环境下部署的可能性比较小,但是否关 *** 作系统的事确实需要确认。
据说Windows的NLB、solaris、AIX支持网卡RSS,目前还有待确认。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/10908593.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-12
下一篇2023-05-12

发表评论

登录后才能评论

评论列表(0条)

    保存