nginx与epoll

nginx与epoll,第1张

要了解Nginx中epoll的应用,首先要了解nginx的请求处理机制

为了响应客户端或者对端服务器的请求,服务器一般需要拥有并行或者并发能力,即同时或者同时段可以响应客户端的请求,一般的做法有:

进程的方式,缺点是进程数量过多的时候,内存等系统资源开销过大,可能会导致系统奔溃。

线程的方式,缺点是线程间共享内存,得考虑线程安全的问题,还得考虑锁的问题。

nginx 的进程模型选择的是多进程+异步非阻塞(epoll)

多进程 指 一个master进程+多个worker进程(可配置,一般为内核数)+ cache manager进程+cache loader进程

异步非阻塞 指worker进程的事件驱动模型采用的是epoll事件驱动库(多路io复用)的方式来和客户端交互。

master进程作用

worker 任务

cache loader

master 和worker 通信

worker 之间通信

worker 的异步非阻塞

异步非阻塞的事件处理机制也称为事件驱动模型有哪些

1轮询
2通知

衍生出事件驱动库也就是我们经常听的多路io复用

是select\poll\epoll、kqueue

本质: 单个进程监控多个文件描述符FD,一旦某个FD可读或者可写,则通知相应的进程进行读写 *** 作

从网卡接收数据说起,需要明白的几个知识点

#2022有你相伴#

了解IO多路复用应该对epoll和select不陌生吧。

首先,select是有缺陷的,就是当事件发生(调用select)的时候,都需要在用户态和内核态之间拷贝fd数组,要知道用户态和内核态之间进行内存的拷贝是非常昂贵的,如果有上万级别的并发网络需要处理的时候,服务器根本处理不来。

这时候,Linux内核的开发者应该算是简单又粗暴的增加了一个内核调用,就是epoll了,有时候简单粗暴的东西还是能提高效率的。

先来看select接口

select是用来等待fd状态的改变,核心就是定义一组fds,如果fds中的某一个fd的状态改变(比如变得可读、可写、或者异常等),select就会从等待中返回。

可以理解为这个东西必须要靠一个fd的改变才能让系统调用去等待,先别思维跳跃,我们一步一步的分析下去,它的手段我觉得肯定是让这个系统调用等在一个等待队列wait_queue上,在不需要执行任务的时候,我们就让任务进程休眠,直到条件改变时,我们再唤醒它。

通俗的说就是:你是餐饮店里唯一的一个的服务员,当店里没有顾客或者有顾客但是没有请求的时候,你处于空闲状态,就可以做点自己的事情(比如玩玩手机),当有顾客来有需求的时候你再过去服务。

如果店里来了10个顾客,有10个顾客(10个fd)都需要监控处理,哪个顾客有请求就要立即去处理,我们先抛开内核是怎么实现的,这时候能想到有两种办法:

招10个服务员对老板来说是需要成本的,所以创建10个线程也是需要成本的。

如果你有两个核,那么创建10个线程毫无意义,大家都知道线程是有时间片的,如果某一个fd的改变去处理只处理到一半,这时候这个线程的时间片用完了,就会切换到另一个线程执行,这个切换不仅增加了成本,而且毫无意义。

还不如只创建两个线程,每个线程只处理一组fds中的一半,处理完一个请求,再去处理另一个请求。不过如果是在用户态是做不了这件事的,只有调度器去搞定。这样你就只能等待在多个fd上,哪个fd请求,就去处理哪一个,处理完再去看看有没有下一个fd需要请求。

然而,如果随着fd的数量的不断增加,效率就会变得越来越低。

总之,对于select,应该没有什么好办法了,应该只能做到这样了,如果你觉得可能某一天,select实现了更高效的算法呢?

我觉得应该不会的,select接口已经那样了。我们只能接受select这个接口的缺陷,明明知道会带来限制,我们就知道去规避这个缺陷,知道什么情况下使用它。

再来看看epoll接口:

从接口看,和select接口几乎差不多的,区别主要是select主要是线性遍历fd数组去找就绪的fd,而epoll是把就绪的fd(epollfd)放在一个链表里,不需要遍历全部fd,这样就减少了不少开销。

我们来简单想一下:把原来select的大部分接口封装在epoll上,其实不是很难,epoll需要调用epoll_create创建epollfd,那么我们改成select自动创建epollfd,然后调用epoll_ctl把数组的fds设置进去,然后调用epoll_wait就可以了。

当然我只是简单想一下而已,初衷是想告诉大家:

再从内核的角度我们简单想一下:一开始应该会想到epoll和select应该是复用同一个内核的吧。实际上,它们都是独立的,一个在fs/selectc中实现,一个在fs/eventpollc中实现。

整体来看,select和epoll本质是一个东西,epoll有一个比较明显的改进是增加了两个对文件描述符的 *** 作的模式: 水平触发 (LT:level trigger)和 边缘触发 (ET:edge trigger)。

现在,对于select和epoll就会形成一种理解: epoll是对select的升级,在fds比较多的情况下,优先考虑使用epoll。

当我们分析epoll和select的时候,我们不能直接跳跃到内核看是怎么实现的,应该看它的整个逻辑来分析,脑子里要形成一些疑问,就比如select已经存在的缺陷是什么?但是又有什么好处?epoll为什么改进?改进了是不更好了?还有没有值得优化的地方?通过整个分析理解下来就能更加了解epoll和select。

你也可以继续阅读 点击 以下文章,下面是我推荐给大家的几篇文章:

1《竟然把通信协议讲的如此通俗?》

2《彻底明白Linux硬链接和软链接》

3《浅析Makefile、make、cmake》

4《常见硬件通信(SPI、I2C、CAN、USB、UART)协议介绍》


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/10780708.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-11
下一篇2023-05-11

发表评论

登录后才能评论

评论列表(0条)

    保存