IO多路复用

IO多路复用,第1张

阻塞IO只能阻塞一个IO *** 作,IO复用模型能阻塞多个IO *** 作,所以才叫多路复用

读数据

直到数据全拷贝至User Space后才返回

不断去Kernel做Polling,询问比如读 *** 作是否完成,没完成则read() *** 作会返回EWOUDBLOCK,需要过一会再尝试执行一次read()。该模式会消耗大量CPU

之前等待时间主要消耗在等数据到达上。IO Multiplexing则是将等待数据到来和读取实际数据两个事情分开,好处是通过select()等IO Multiplexing的接口一次可以等待在多个Socket上。select()返回后,处于Ready状态的Socket执行读 *** 作时候也会阻塞,只是只阻塞将数据从Kernel拷贝到User的时间

首先注册处理函数到SIGIO信号上,在等待数据到来过程结束后,系统触发SGIO信号,之后可以在信号处理函数中执行读数据 *** 作,再唤醒Main Thread或直接唤醒Main Thread让它完成数据读取。整个过程没有一次阻塞。

问题:TCP下,连接断开/可读/可写等都会产生Signal,并且Signal没有提供好的方法去区分这些Signal到底为什么被触发

AIO是注册一个读任务,直到读任务完全完成后才会通知应用层。AIO是由内核通知IO *** 作什么时候完成,信号驱动IO是由内核告知何时启动IO *** 作

也存在挺多问题,比如如何去cancel一个读任务

除了AIO是异步乱携皮IO,其他全是同步IO

fd_set: 一个long类型的数组,每一位可以表示一个文件描述符

问题

返回条件与select一样。

fds还是关注的描述符列表。poll将events和reevents分开了,所以如果关注的events没有发生变化就可以重用fds,poll只修改rents不会动events。fds是个数组,不是fds_set,没有了上限。

相对于select,poll解决了fds长度上限问题,解决了监听描述符无法复用问题,但仍需在poll返回后遍历fds去找ready的描述符,也要清理ready描述符对应哗差的revents,Kernel也同样是每次poll调用需要去遍历fds注册监听,poll返回时拆除监听,也仍有惊群问题,无法动态修改描述符的问题。

使用步骤:

优点

缺点

changelist用于传递关心隐裂的event

nchanges用于传递changelist的大小

eventlist用于当有事件产生后,将产生的事件放在这里

nevents用于传递eventlist大小

timeout 超时时间

kqueue高级的地方在于,它监听的不一定非要是Socket,不一定非要是文件,可以是一系列事件,所以struct kevent内参数叫filter,用于过滤出关心的事件。

kqueue有epoll所有优点,还能通过changelist一次注册多个关心的event,不需要像epoll那样每次调用epoll_ctl去配置

当我们执行epoll_ctl时,除了把socket放到epoll文件系统里file对象对应的红黑树上之外,还会给内核中断处理程序注册一个回调函数,告诉内核,如果这个句柄的中断到了,就把它放到准备就绪list链表里。所以,当一个socket上有数据到了,内核在把网卡上的数据copy到内核中后就来把socket插入到准备就绪链表里。

如此,一棵红黑树,一张准备就绪句柄链表,少量的内核cache,就帮我们解决了大并发下的socket处理问题。执行epoll_create时,创建了红黑树和就绪链表,执行epoll_ctl时,如果增加socket句柄,则检查在红黑树中是否存在,存在立即返回,不存在则添加到树干上,然后向内核注册回调函数,用于当中断事件来临时向准备就绪链表中插入数据。执行epoll_wait时立刻返回准备就绪链表里的数据即可。

Epoll有两种触发模式,一种Edge Trigger简称ET,一种Level Trigger简称LT。每个使用epoll_ctl注册在epoll描述符上的被监听的描述符都能单独配置自己的触发模式。

从使用角度的区别:ET模式下当一个文件描述符Ready后,需要以Non-Blocking方式一直 *** 作这个FD直到 *** 作返回EAGAIN错误位置,期间Ready这个事件只会触发epoll_wait一次返回。LT模式,如果FD上的事件一直处在Ready状态没处理完,则每次调用epoll_wait都会立即返回

场景:

Java的NIO提供了Selector类,用于跨平台的实现Socket Polling,即IO多路复用。BSD系统上对应的是Kqueue,Window上对应的是Select,Linux上对应的是LT的Epoll(为了跨平台统一,Windows上背后是Select,是LT的)

Selector的使用:

答案可能有点长,回答这个问题首先得知道,什么是socket?

一、什么是socket?

我们都知道unix(like)世界里,一切皆文件,而文件是什么呢?文件就是一串二进制流芦兄而已,不管socket,还是FIFO、管道、终端,对我们来说,一切都是文件,一切都是流。在信息 交换的过陪闹袭程中,我们都是对这些流进行数据的收发 *** 作,简称为I/O *** 作(input and output),往流中读出数据,系统调用read,写入数据,系统调用write。不过话说回来了 ,计算机里有这么多的流,我怎么知道要 *** 作哪个流呢?对,就是文件描述符,即通常所说的fd,一个fd就是一个整数,所以,对这个整数的 *** 作,就是对这个文件(流)的 *** 作。我们创建一个socket,通过系统调用会返回一个文件描述符,那么剩下对socket的 *** 作就会转化为对这个描述符的 *** 作。不能不说这又是一种分层和抽象的思想。

二、阻塞?

什么是程序的阻塞呢?想象这种情形,比如你等快递,但快递一直没来,你会怎么做?有两种方式:

三、I/O多路复用

好了,我们讲了这么多,再来总结一下,到底什么是I/O多路复用。

先讲一下I/O模型:

首先,输入 *** 作一般包含两个步骤:

等待数据准备好(waiting for data to be ready)。对于一个套接口上的 *** 作,这一步骤关系到数据从网络到达,并将其复制到内核的某个缓冲区。

将数据从内核缓冲区复制到进程缓冲区(copying the data from the kernel to the process)。

其次了解一下常用的3种I/O模型:

1、阻塞I/O模型

最广泛的模型是阻塞I/O模型,默认情况下,所有套接口都是阻塞的。 进程调用recvfrom系统调用,整个过程是阻塞的,直到数据复制到进程缓冲区时才返回(当然,系统调用被中断也会返回)。

2、非阻塞I/O模型

当我们把一个套接口设置为非阻塞时,就是在告诉内核,当请求的I/O *** 作无法完成时,不要将进程睡眠,而是返回一个错误。当数据没有准备好时,内核立即返回EWOULDBLOCK错误,第四次调用弯陆系统调用时,数据已经存在,这时将数据复制到进程缓冲区中。这其中有一个 *** 作时轮询(polling)。

3、I/O复用模型

此模型用到select和poll函数,这两个函数也会使进程阻塞,select先阻塞,有活动套接字才返回,但是和阻塞I/O不同的是,这两个函数可以同时阻塞多个I/O *** 作,而且可以同时对多个读 *** 作,多个写 *** 作的I/O函数进行检测,直到有数据可读或可写(就是监听多个socket)。select被调用后,进程会被阻塞,内核监视所有select负责的socket,当有任何一个socket的数据准备好了,select就会返回套接字可读,我们就可以调用recvfrom处理数据。

正因为阻塞I/O只能阻塞一个I/O *** 作,而I/O复用模型能够阻塞多个I/O *** 作,所以才叫做多路复用。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/12407156.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-23
下一篇2023-05-23

发表评论

登录后才能评论

评论列表(0条)

    保存