
在Linux下,我们使用ulimit-n命令可以看到单个
进程能够打开的最大文件
句柄数量(socket连接也算在里面)。系统默认值1024。对于一般的应用来说(象Apache、系统进程)1024完全足够使用。但是如何象squid、mysql、java等单进程处理大量请求的应用来说就有点捉襟见肘了。如果单个进程打开的文件句柄数量超过了系统定义的值,就会提到“toomanyfilesopen”的错误提示。如何知道当前进程打开了多少个文件句柄呢?下面一段小脚本可以帮你查看:lsof-n|awk'{print$2}'|sort|uniq-c|sort-nr|more在系统访问高峰时间以root用户执行上面的脚本,可能出现的结果如下:#lsof-n|awk'{print$2}'|sort|uniq-c|sort-nr|more13124204572424457242315624264其中第一行是打开的文件句柄数量,第二行是进程号。得到进程号后,我们可以通过ps命令得到进程的详细内容。ps-aef|grep24204mysql24204241629916:15?00:24:25/usr/sbin/mysqld哦,原来是mysql进程打开最多文件句柄数量。但是他目前只打开了131个文件句柄数量,远远底于系统默认值1024。但是如果系统并发特别大,尤其是squid服务器,很有可能会超过1024。这时候就必须要调整系统参数,以适应应用变化。Linux有硬性限制和软性限制。可以通过ulimit来设定这两个参数。方法如下,以root用户运行以下命令:ulimit-HSn4096以上命令中,H指定了硬性大小,S指定了软性大小,n表示设定单个进程最大的打开文件句柄数量。个人觉得最好不要超过4096,毕竟打开的文件句柄数越多响应时间肯定会越慢。设定句柄数量后,系统重启后,又会恢复默认值。如果想永久保存下来,可以修改.bash_profile文件,可以修改/etc/profile把上面命令加到最后。对于这个大文件来说,cp *** 作其实就是读 *** 作,与此同时还要进行写 *** 作。
这样若是写 *** 作的数据量大的话肯定会有影响(磁盘IO会降低),若是写 *** 作数据量小的话,那影响就可以忽略了。
硬盘快满了,加硬盘
扩容,不管是独立的服务器,还是云空间新买的硬盘,扩容方式一样。下面以阿里VPS为例,详细说一下,挂载硬盘扩容的2种方法。
阿里VPS,个人觉得有以下二个方面需要改进
1,默认不是lvm,所以系统盘/dev/xvda1是不能扩容的,所以如果有大数据的东西,一开始就要考虑到扩容的问题。数据量越大, *** 作风险越大。
2,不能实现无缝扩容,也就是说,在后台扩容一下,不用登录到VPS,进行调整。非专业人士,扩容困难
评论列表(0条)