c语言 linux 中 poll 的参数

c语言 linux 中 poll 的参数,第1张

分类: 电脑/网络 >>程序设计 >>其他编程语言

问题描述:

#include <sys/poll.h>int poll(struct pollfd *ufds, unsigned int nfds, int timeout)struct pollfd{int fd/* 想查询的文件描述符. */short int events/* fd 上,我们感兴趣的事件*/short int revents/* Types of events that actually occurred. */}请问第二个参数unsigned int nfds的含义,它传递什么信息?

解析:

ufds 指向 struct pollfd 数组

nfds 指定 pollfd 数组元素的个数,也就是要监测几个 pollfd

理解Linux的IO模型之前,首先要了解一些基本概念,才能理解这些IO模型设计的依据

*** 作系统使用虚拟内存来映射物理内存,对于32位的 *** 作系统来说,虚拟地址空间为4G(2^32)。 *** 作系统的核心是内核,为了保护用户进程不能直接 *** 作内核,保证内核安全, *** 作系统将虚拟地址空间划分为内核空间和用户空间。内核可以访问全部的地址空间,拥有访问底层硬件设备的权限,普通的应用程序需要访问硬件设备必须通过 系统调用 来实现。

对于Linux系统来说,将虚拟内存的最高1G字节的空间作为内核空间仅供内核使用,低3G字节的空间供用户进程使用,称为用户空间。

又被称为标准I/O,大多数文件系统的默认I/O都是缓存I/O。在Linux系统的缓存I/O机制中, *** 作系统会将I/O的数据缓存在页缓存(内存)中,也就是数据先被拷贝到内核的缓冲区(内核地址空间),然后才会从内核缓冲区拷贝到应用程序的缓冲区(用户地址空间)。

这种方式很明显的缺点就是数据传输过程中需要再应用程序地址空间和内核空间进行多次数据拷贝 *** 作,这些 *** 作带来的CPU以及内存的开销是非常大的。

由于Linux系统采用的缓存I/O模式,对于一次I/O访问,以读 *** 作举例,数据先会被拷贝到内核缓冲区,然后才会从内核缓冲区拷贝到应用程序的缓存区,当一个read系统调用发生的时候,会经历两个阶段:

正是因为这两个状态,Linux系统才产生了多种不同的网络I/O模式的方案

Linux系统默认情况下所有socke都是blocking的,一个读 *** 作流程如下:

以UDP socket为例,当用户进程调用了recvfrom系统调用,如果数据还没准备好,应用进程被阻塞,内核直到数据到来且将数据从内核缓冲区拷贝到了应用进程缓冲区,然后向用户进程返回结果,用户进程才解除block状态,重新运行起来。

阻塞模行下只是阻塞了当前的应用进程,其他进程还可以执行,不消耗CPU时间,CPU的利用率较高。

Linux可以设置socket为非阻塞的,非阻塞模式下执行一个读 *** 作流程如下:

当用户进程发出recvfrom系统调用时,如果kernel中的数据还没准备好,recvfrom会立即返回一个error结果,不会阻塞用户进程,用户进程收到error时知道数据还没准备好,过一会再调用recvfrom,直到kernel中的数据准备好了,内核就立即将数据拷贝到用户内存然后返回ok,这个过程需要用户进程去轮询内核数据是否准备好。

非阻塞模型下由于要处理更多的系统调用,因此CPU利用率比较低。

应用进程使用sigaction系统调用,内核立即返回,等到kernel数据准备好时会给用户进程发送一个信号,告诉用户进程可以进行IO *** 作了,然后用户进程再调用IO系统调用如recvfrom,将数据从内核缓冲区拷贝到应用进程。流程如下:

相比于轮询的方式,不需要多次系统调用轮询,信号驱动IO的CPU利用率更高。

异步IO模型与其他模型最大的区别是,异步IO在系统调用返回的时候所有 *** 作都已经完成,应用进程既不需要等待数据准备,也不需要在数据到来后等待数据从内核缓冲区拷贝到用户缓冲区,流程如下:

在数据拷贝完成后,kernel会给用户进程发送一个信号告诉其read *** 作完成了。

是用select、poll等待数据,可以等待多个socket中的任一个变为可读,这一过程会被阻塞,当某个套接字数据到来时返回,之后再用recvfrom系统调用把数据从内核缓存区复制到用户进程,流程如下:

流程类似阻塞IO,甚至比阻塞IO更差,多使用了一个系统调用,但是IO多路复用最大的特点是让单个进程能同时处理多个IO事件的能力,又被称为事件驱动IO,相比于多线程模型,IO复用模型不需要线程的创建、切换、销毁,系统开销更小,适合高并发的场景。

select是IO多路复用模型的一种实现,当select函数返回后可以通过轮询fdset来找到就绪的socket。

优点是几乎所有平台都支持,缺点在于能够监听的fd数量有限,Linux系统上一般为1024,是写死在宏定义中的,要修改需要重新编译内核。而且每次都要把所有的fd在用户空间和内核空间拷贝,这个 *** 作是比较耗时的。

poll和select基本相同,不同的是poll没有最大fd数量限制(实际也会受到物理资源的限制,因为系统的fd数量是有限的),而且提供了更多的时间类型。

总结:select和poll都需要在返回后通过轮询的方式检查就绪的socket,事实上同时连的大量socket在一个时刻只有很少的处于就绪状态,因此随着监视的描述符数量的变多,其性能也会逐渐下降。

epoll是select和poll的改进版本,更加灵活,没有描述符限制。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。

epoll_create()用来创建一个epoll句柄。

epoll_ctl() 用于向内核注册新的描述符或者是改变某个文件描述符的状态。已注册的描述符在内核中会被维护在一棵红黑树上,通过回调函数内核会将 I/O 准备好的描述符加入到一个就绪链表中管理。

epoll_wait() 可以从就绪链表中得到事件完成的描述符,因此进程不需要通过轮询来获得事件完成的描述符。

当epoll_wait检测到描述符IO事件发生并且通知给应用程序时,应用程序可以不立即处理该事件,下次调用epoll_wait还会再次通知该事件,支持block和nonblocking socket。

当epoll_wait检测到描述符IO事件发生并且通知给应用程序时,应用程序需要立即处理该事件,如果不立即处理,下次调用epoll_wait不会再次通知该事件。

ET模式在很大程度上减少了epoll事件被重复触发的次数,因此效率要比LT模式高。epoll工作在ET模式的时候,必须使用nonblocking socket,以避免由于一个文件句柄的阻塞读/阻塞写 *** 作把处理多个文件描述符的任务饿死。

【segmentfault】 Linux IO模式及 select、poll、epoll详解

【GitHub】 CyC2018/CS-Notes

Linux下select调用的过程:

1.用户层应用程序调用select(),底层调用poll())

2.核心层调用sys_select() ------>do_select()

最终调用文件描述符fd对应的struct file类型变量的struct file_operations *f_op的poll函数。

poll指向的函数返回当前可否读写的信息。

1)如果当前可读写,返回读写信息。

2)如果当前不可读写,则阻塞进程,并等待驱动程序唤醒,重新调用poll函数,或超时返回。

3.驱动需要实现poll函数。

当驱动发现有数据可以读写时,通知核心层,核心层重新调用poll指向的函数查询信息。

poll_wait(filp,&wait_q,wait) // 此处将当前进程加入到等待队列中,但并不阻塞

在中断中使用wake_up_interruptible(&wait_q)唤醒等待队列

对select与非阻塞I/O实现的分析

咔咔,space改版后的第一篇文章,嘿嘿

--------------------------

使用非阻塞I/O的应用程序经常使用select,poll等系统调用,他们本质上都允许决定是否可以对一个或多个打开的文件做非阻塞的读取或写入,这些调用也会阻塞进程。

ldd3详细阐述了非阻塞I/O的实现方法,以及poll的数据结构,但是select是如何利用驱动程序中 f_op->poll相对应的方法来实现这种阻塞的呢?向老哥请教并查看了源码后,基本弄清了在对设备文件调用select之后,到底发生了什么。下面先简要介绍select系统调用及驱动中的相关实现,再说明两者之间的联系。

select的函数原型如下:

int select(int n, fd_set *readfds, fd_set *writefds, fd_set *exceptfds,

struct timeval *timeout)

用于等待fd集合中的对应的文件改变状态。注意timeout参数是timeval结构体而不是timespec,三个fd集合分别用于等待文件可读、可写、例外。对这些集合的 *** 作非常方便,内核提供了以FD_开头的宏。第一个参数n应该等于三个集合中最大的fd值加1。timeout为0时,select立即返回不会阻塞,这在轮询(polling)时很有用;若要一直阻塞直到有fd可用,timeout应设为NULL。

select系统调用需要来自设备驱动程序的相应支持,也就是poll方法,它做两件事:

1. 在一个或多个可指示poll状态变化的等待队列上调用poll_wait;

2. 返回一个用来描述 *** 作是否可以立即无阻塞执行的位掩码。

一个典型的poll方法的实现如下(摘自ldd3):

struct scull_pipe *dev = filp->private_data

unsigned int mask = 0

/*

* The buffer is circularit is considered full

* if "wp" is right behind "rp" and empty if the

* two are equal.

*/

down(&dev->sem)

poll_wait(filp, &dev->inq, wait)

poll_wait(filp, &dev->outq, wait)

if (dev->rp != dev->wp)

mask |= POLLIN | POLLRDNORM /* readable */

if (spacefree(dev))

mask |= POLLOUT | POLLWRNORM /* writable */

up(&dev->sem)

return mask

这段代码增加某设备的两个等待队列到poll_table中,然后根据数据的可读或可写状态设置相应的位掩码。当用户应用程序调用了select函数时,内核会调用由该系统调用引用的全部文件的poll方法,并向他们传递同一个poll_table。

select系统调用过程如下:

select sys_select do_select *fop->poll

sys_select作一些准备工作和检查,比如检查传递进来的timeout参数,用rcu更新max_fdset的值,为in/out/ex分配bitmap并为fds赋值,然后调用do_select:

ret = do_select(n, &fds, &timeout)

进入do_select之后,首先初始化poll_wqueues类型的table,再将poll_table赋给wait,poll_table是构成实际数据结构的一个简单封装(可以查看linux/poll.h,这里不详述):

struct poll_wqueues table

poll_table *wait

poll_initwait(&table)

wait = &table.pt

下面就是真正干活的代码了,这是一个for的无限循环,下面是核心代码:

for (j = 0j <__NFDBITS++j, ++i, bit <<= 1) {

......

if (file) {

f_op = file->f_op

mask = DEFAULT_POLLMASK

if (f_op &&f_op->poll)

mask = (*f_op->poll)(file, retval ? NULL : wait)

......

}

cond_resched()

}

现在终于知道f_op->poll中干的两件事是用来做什么的了,给mask赋值,是为了传递给do_select里的mask,而调用poll_wait就是为了加入设备的等待队列然后给cond_resched()用,如果没有一个被唤醒,那么cond_resched()就是立刻切换其他进程,用户空间select休眠(timeout非0时)。注意到poll方法的第二个参数有两种可能,这是为什么呢?先别急,等会看看retval是干嘛的就知道了。

代码中有两个地方可以跳出这个无限循环:

if (retval || !__timeout || signal_pending(current))

break

if(table.error) {

retval = table.error

break

}

retval非零,timeout为0(即立刻跳出),休眠过程中收到信号以及出错。后面三个很好理解,第一个是怎么回事呢?我们来看看有关retval赋值的代码:

retval = max_select_fd(n, fds)

n = retval

retval = 0

n保存最大的文件描述符,retval在进入for无限循环前被置为0。通过比较相关的位,一旦发现可以进行I/O,retval的值就会加1,变成非零,这个时候(*f_op->poll)(file, retval ? NULL : wait)的第二个参数变成NULL,原因显而易见,因为内核知道此时不会发生任何等待,因此也不需要构造等待队列。另外,当timeout为0时,wait会被设为NULL,因此这种情况下即使retval为0,即没有可用I/O,poll的第二个参数还是NULL,系统不需要处理等待队列。跳出循环之后将进程状态设置为TASK_RUNNING,并对poll_table进行清空,最后将retval返回给sys_select做一些“善后”工作


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/7210777.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-03
下一篇2023-04-03

发表评论

登录后才能评论

评论列表(0条)

    保存