0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度剖析Linux的epoll机制

Linux爱好者 来源:奇伢云存储 作者:奇伢 2021-07-29 10:52 次阅读

Linux 系统之中有一个核心武器:epoll 池,在高并发的,高吞吐的 IO 系统中常常见到 epoll 的身影。

IO 多路复用

在 Go 里最核心的是 Goroutine ,也就是所谓的协程,协程最妙的一个实现就是异步的代码长的跟同步代码一样。比如在 Go 中,网络 IO 的 read,write 看似都是同步代码,其实底下都是异步调用,一般流程是:

write ( /* IO 参数 */ )

请求入队

等待完成

后台 loop 程序

发送网络请求

唤醒业务方

Go 配合协程在网络 IO 上实现了异步流程的代码同步化。核心就是用 epoll 池来管理网络 fd 。

实现形式上,后台的程序只需要 1 个就可以负责管理多个 fd 句柄,负责应对所有的业务方的 IO 请求。这种一对多的 IO 模式我们就叫做 IO 多路复用。

多路是指?多个业务方(句柄)并发下来的 IO 。

复用是指?复用这一个后台处理程序。

站在 IO 系统设计人员的角度,业务方咱们没办法提要求,因为业务是上帝,只有你服从的份,他们要创建多个 fd,那么你就需要负责这些 fd 的处理,并且最好还要并发起来。

业务方没法提要求,那么只能要求后台 loop 程序了!

要求什么呢?快!快!快!这就是最核心的要求,处理一定要快,要给每一个 fd 通道最快的感受,要让每一个 fd 觉得,你只在给他一个人跑腿。

那有人又问了,那我一个 IO 请求(比如 write )对应一个线程来处理,这样所有的 IO 不都并发了吗?是可以,但是有瓶颈,线程数一旦多了,性能是反倒会差的。

这里不再对比多线程和 IO 多路复用实现高并发之间的区别,详细的可以去了解下 nginx 和 redis 高并发的秘密。

1 最朴实的实现方式?

我不用任何其他系统调用,能否实现 IO 多路复用?

可以的。那么写个 for 循环,每次都尝试 IO 一下,读/写到了就处理,读/写不到就 sleep 下。这样我们不就实现了 1 对多的 IO 多路复用嘛。

while True:

for each 句柄数组 {

read/write(fd, /* 参数 */)

}

sleep(1s)

慢着,有个问题,上面的程序可能会被卡死在第三行,使得整个系统不得运行,为什么?

默认情况下,我们 create 出的句柄是阻塞类型的。我们读数据的时候,如果数据还没准备好,是会需要等待的,当我们写数据的时候,如果还没准备好,默认也会卡住等待。所以,在上面伪代码第三行是可能被直接卡死,而导致整个线程都得到不到运行。

举个例子,现在有 11,12,13 这 3 个句柄,现在 11 读写都没有准备好,只要 read/write(11, /*参数*/) 就会被卡住,但 12,13 这两个句柄都准备好了,那遍历句柄数组 11,12,13 的时候就会卡死在前面,后面 12,13 则得不到运行。这不符合我们的预期,因为我们 IO 多路复用的 loop 线程是公共服务,不能因为一个 fd 就直接瘫痪。

那这个问题怎么解决?

只需要把 fd 都设置成非阻塞模式。这样 read/write 的时候,如果数据没准备好,返回 EAGIN 的错误即可,不会卡住线程,从而整个系统就运转起来了。比如上面句柄 11 还未就绪,那么 read/write(11, /*参数*/) 不会阻塞,只会报个 EAGIN 的错误,这种错误需要特殊处理,然后 loop 线程可以继续执行 12,13 的读写。

以上就是最朴实的 IO 多路复用的实现了。但好像在生产环境没见过这种 IO 多路复用的实现?为什么?

因为还不够高级。for 循环每次要定期 sleep 1s,这个会导致吞吐能力极差,因为很可能在刚好要 sleep 的时候,所有的 fd 都准备好 IO 数据,而这个时候却要硬生生的等待 1s,可想而知。。。

那有同学又要质疑了,那 for 循环里面就不 sleep 嘛,这样不就能及时处理了吗?

及时是及时了,但是 CPU 估计要跑飞了。不加 sleep ,那在没有 fd 需要处理的时候,估计 CPU 都要跑到 100% 了。这个也是无法接受的。

纠结了,那 sleep 吞吐不行,不 sleep 浪费 cpu,怎么办?

这种情况用户态很难有所作为,只能求助内核来提供机制协助来。因为内核才能及时的管理这些事件的通知和调度。

我们再梳理下 IO 多路复用的需求和原理。IO 多路复用就是 1 个线程处理 多个 fd 的模式。我们的要求是:这个 “1” 就要尽可能的快,避免一切无效工作,要把所有的时间都用在处理句柄的 IO 上,不能有任何空转,sleep 的时间浪费。

有没有一种工具,我们把一箩筐的 fd 放到里面,只要有一个 fd 能够读写数据,后台 loop 线程就要立马唤醒,全部马力跑起来。其他时间要把 cpu 让出去。

能做到吗?能,但这种需求只能内核提供机制满足你。

2 这事 Linux 内核必须要给个说法?

是的,想要不用 sleep 这种辣眼睛的实现,Linux 内核必须出手了,毕竟 IO 的处理都是内核之中,数据好没好内核最清楚。

内核一口气提供了 3 种工具 select,poll,epoll 。

为什么有 3 种?

历史不断改进,矬 -》 较矬 -》 卧槽、高效 的演变而已。

Linux 还有其他方式可以实现 IO 多路复用吗?

好像没有了!

这 3 种到底是做啥的?

这 3 种都能够管理 fd 的可读可写事件,在所有 fd 不可读不可写无所事事的时候,可以阻塞线程,切走 cpu 。fd 有情况的时候,都要线程能够要能被唤醒。

而这三种方式以 epoll 池的效率最高。为什么效率最高?

其实很简单,这里不详说,其实无非就是 epoll 做的无用功最少,select 和 poll 或多或少都要多余的拷贝,盲猜(遍历才知道)fd ,所以效率自然就低了。

举个例子,以 select 和 epoll 来对比举例,池子里管理了 1024 个句柄,loop 线程被唤醒的时候,select 都是蒙的,都不知道这 1024 个 fd 里谁 IO 准备好了。这种情况怎么办?只能遍历这 1024 个 fd ,一个个测试。假如只有一个句柄准备好了,那相当于做了 1 千多倍的无效功。

epoll 则不同,从 epoll_wait 醒来的时候就能精确的拿到就绪的 fd 数组,不需要任何测试,拿到的就是要处理的。

epoll 池原理

下面我们看一下 epoll 池的使用和原理。

1 epoll 涉及的系统调用

epoll 的使用非常简单,只有下面 3 个系统调用。

epoll_create

epollctl

epollwait

就这?是的,就这么简单。

epollcreate 负责创建一个池子,一个监控和管理句柄 fd 的池子;

epollctl 负责管理这个池子里的 fd 增、删、改;

epollwait 就是负责打盹的,让出 CPU 调度,但是只要有“事”,立马会从这里唤醒;

2 epoll 高效的原理

Linux 下,epoll 一直被吹爆,作为高并发 IO 实现的秘密武器。其中原理其实非常朴实:epoll 的实现几乎没有做任何无效功。 我们从使用的角度切入来一步步分析下。

首先,epoll 的第一步是创建一个池子。这个使用 epoll_create 来做:

原型:

int epoll_create(int size);

示例:

epollfd = epoll_create(1024);

if (epollfd == -1) {

perror(“epoll_create”);

exit(EXIT_FAILURE);

}

这个池子对我们来说是黑盒,这个黑盒是用来装 fd 的,我们暂不纠结其中细节。我们拿到了一个 epollfd ,这个 epollfd 就能唯一代表这个 epoll 池。注意,这里又有一个细节:用户可以创建多个 epoll 池。

然后,我们就要往这个 epoll 池里放 fd 了,这就要用到 epoll_ctl 了

原型:

int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);

示例:

if (epoll_ctl(epollfd, EPOLL_CTL_ADD, 11, &ev) == -1) {

perror(“epoll_ctl: listen_sock”);

exit(EXIT_FAILURE);

}

上面,我们就把句柄 11 放到这个池子里了,op(EPOLL_CTL_ADD)表明操作是增加、修改、删除,event 结构体可以指定监听事件类型,可读、可写。

第一个跟高效相关的问题来了,添加 fd 进池子也就算了,如果是修改、删除呢?怎么做到快速?

这里就涉及到你怎么管理 fd 的数据结构了。

最常见的思路:用 list ,可以吗?功能上可以,但是性能上拉垮。list 的结构来管理元素,时间复杂度都太高 O(n),每次要一次次遍历链表才能找到位置。池子越大,性能会越慢。

那有简单高效的数据结构吗?

有,红黑树。Linux 内核对于 epoll 池的内部实现就是用红黑树的结构体来管理这些注册进程来的句柄 fd。红黑树是一种平衡二叉树,时间复杂度为 O(log n),就算这个池子就算不断的增删改,也能保持非常稳定的查找性能。

现在思考第二个高效的秘密:怎么才能保证数据准备好之后,立马感知呢?

epoll_ctl 这里会涉及到一点。秘密就是:回调的设置。在 epoll_ctl 的内部实现中,除了把句柄结构用红黑树管理,另一个核心步骤就是设置 poll 回调。

思考来了:poll 回调是什么?怎么设置?

先说说 file_operations-》poll 是什么?

在 文件描述符 fd 究竟是什么 说过,Linux 设计成一切皆是文件的架构,这个不是说说而已,而是随处可见。实现一个文件系统的时候,就要实现这个文件调用,这个结构体用 struct file_operations 来表示。这个结构体有非常多的函数,精简了一些,如下:

struct file_operations {

ssize_t (*read) (struct file *, char __user *, size_t, loff_t *);

ssize_t (*write) (struct file *, const char __user *, size_t, loff_t *);

__poll_t (*poll) (struct file *, struct poll_table_struct *);

int (*open) (struct inode *, struct file *);

int (*fsync) (struct file *, loff_t, loff_t, int datasync);

// 。。。。

};

你看到了 read,write,open,fsync,poll 等等,这些都是对文件的定制处理操作,对于文件的操作其实都是在这个框架内实现逻辑而已,比如 ext2 如果有对 read/write 做定制化,那么就会是 ext2_read,ext2_write,ext4 就会是 ext4_read,ext4_write。在 open 具体“文件”的时候会赋值对应文件系统的 file_operations 给到 file 结构体。

那我们很容易知道 read 是文件系统定制 fd 读的行为调用,write 是文件系统定制 fd 写的行为调用,file_operations-》poll 呢?

这个是定制监听事件的机制实现。通过 poll 机制让上层能直接告诉底层,我这个 fd 一旦读写就绪了,请底层硬件(比如网卡)回调的时候自动把这个 fd 相关的结构体放到指定队列中,并且唤醒操作系统

举个例子:网卡收发包其实走的异步流程,操作系统把数据丢到一个指定地点,网卡不断的从这个指定地点掏数据处理。请求响应通过中断回调来处理,中断一般拆分成两部分:硬中断和软中断。poll 函数就是把这个软中断回来的路上再加点料,只要读写事件触发的时候,就会立马通知到上层,采用这种事件通知的形式就能把浪费的时间窗就完全消失了。

划重点:这个 poll 事件回调机制则是 epoll 池高效最核心原理。

划重点:epoll 池管理的句柄只能是支持了 file_operations-》poll 的文件 fd。换句话说,如果一个“文件”所在的文件系统没有实现 poll 接口,那么就用不了 epoll 机制。

第二个问题:poll 怎么设置?

在 epoll_ctl 下来的实现中,有一步是调用 vfs_poll 这个里面就会有个判断,如果 fd 所在的文件系统的 file_operations 实现了 poll ,那么就会直接调用,如果没有,那么就会报告响应的错误码。

static inline __poll_t vfs_poll(struct file *file, struct poll_table_struct *pt)

{

if (unlikely(!file-》f_op-》poll))

return DEFAULT_POLLMASK;

return file-》f_op-》poll(file, pt);

}

你肯定好奇 poll 调用里面究竟是实现了什么?

总结概括来说:挂了个钩子,设置了唤醒的回调路径。epoll 跟底层对接的回调函数是:ep_poll_callback,这个函数其实很简单,做两件事情:

把事件就绪的 fd 对应的结构体放到一个特定的队列(就绪队列,ready list);

唤醒 epoll ,活来啦!

当 fd 满足可读可写的时候就会经过层层回调,最终调用到这个回调函数,把对应 fd 的结构体放入就绪队列中,从而把 epoll 从 epoll_wait 出唤醒。

这个对应结构体是什么?

结构体叫做 epitem ,每个注册到 epoll 池的 fd 都会对应一个。

就绪队列需要用很高级的数据结构吗?

就绪队列就简单了,因为没有查找的需求了呀,只要是在就绪队列中的 epitem ,都是事件就绪的,必须处理的。所以就绪队列就是一个最简单的双指针链表。

小结下:epoll 之所以做到了高效,最关键的两点:

内部管理 fd 使用了高效的红黑树结构管理,做到了增删改之后性能的优化和平衡;

epoll 池添加 fd 的时候,调用 file_operations-》poll ,把这个 fd 就绪之后的回调路径安排好。通过事件通知的形式,做到最高效的运行;

epoll 池核心的两个数据结构:红黑树和就绪列表。红黑树是为了应对用户的增删改需求,就绪列表是 fd 事件就绪之后放置的特殊地点,epoll 池只需要遍历这个就绪链表,就能给用户返回所有已经就绪的 fd 数组;

3 哪些 fd 可以用 epoll 来管理?

再来思考另外一个问题:由于并不是所有的 fd 对应的文件系统都实现了 poll 接口,所以自然并不是所有的 fd 都可以放进 epoll 池,那么有哪些文件系统的 file_operations 实现了 poll 接口?

首先说,类似 ext2,ext4,xfs 这种常规的文件系统是没有实现的,换句话说,这些你最常见的、真的是文件的文件系统反倒是用不了 epoll 机制的。

那谁支持呢?

最常见的就是网络套接字:socket 。网络也是 epoll 池最常见的应用地点。Linux 下万物皆文件,socket 实现了一套 socket_file_operations 的逻辑( net/socket.c ):

static const struct file_operations socket_file_ops = {

.read_iter = sock_read_iter,

.write_iter = sock_write_iter,

.poll = sock_poll,

// 。。。

};

我们看到 socket 实现了 poll 调用,所以 socket fd 是天然可以放到 epoll 池管理的。

还有支持的吗?

有的,很多。其实 Linux 下还有两个很典型的 fd ,常常也会放到 epoll 池里。

eventfd:eventfd 实现非常简单,故名思义就是专门用来做事件通知用的。使用系统调用 eventfd 创建,这种文件 fd 无法传输数据,只用来传输事件,常常用于生产消费者模式的事件实现;

timerfd:这是一种定时器 fd,使用 timerfd_create 创建,到时间点触发可读事件;

小结一下:

ext2,ext4,xfs 等这种真正的文件系统的 fd ,无法使用 epoll 管理;

socket fd,eventfd,timerfd 这些实现了 poll 调用的可以放到 epoll 池进行管理;

其实,在 Linux 的模块划分中,eventfd,timerfd,epoll 池都是文件系统的一种模块实现。

思考

前面我们已经思考了很多知识点,有一些简单有趣的知识点,提示给读者朋友,这里只抛砖引玉。

问题:单核 CPU 能实现并行吗?

不行。

问题:单线程能实现高并发吗?

可以。

问题:那并发和并行的区别是?

一个看的是时间段内的执行情况,一个看的是时间时刻的执行情况。

问题:单线程如何做到高并发?

IO 多路复用呗,今天讲的 epoll 池就是了。

问题:单线程实现并发的有开源的例子吗?

redis,nginx 都是非常好的学习例子。当然还有我们 Golang 的 runtime 实现也尽显高并发的设计思想。

总结

IO 多路复用的原始实现很简单,就是一个 1 对多的服务模式,一个 loop 对应处理多个 fd ;

IO 多路复用想要做到真正的高效,必须要内核机制提供。因为 IO 的处理和完成是在内核,如果内核不帮忙,用户态的程序根本无法精确的抓到处理时机;

fd 记得要设置成非阻塞的哦,切记;

epoll 池通过高效的内部管理结构,并且结合操作系统提供的 poll 事件注册机制,实现了高效的 fd 事件管理,为高并发的 IO 处理提供了前提条件;

epoll 全名 eventpoll,在 Linux 内核下以一个文件系统模块的形式实现,所以有人常说 epoll 其实本身就是文件系统也是对的;

socketfd,eventfd,timerfd 这三种”文件“fd 实现了 poll 接口,所以网络 fd,事件fd,定时器fd 都可以使用 epoll_ctl 注册到池子里。我们最常见的就是网络fd的多路复用;

ext2,ext4,xfs 这种真正意义的文件系统反倒没有提供 poll 接口实现,所以不能用 epoll 池来管理其句柄。那文件就无法使用 epoll 机制了吗?不是的,有一个库叫做 libaio ,通过这个库我们可以间接的让文件使用 epoll 通知事件,以后详说,此处不表;

后记

epoll 池使用很简洁,但实现不简单。还是那句话,Linux 内核帮你包圆了。今天并没有罗列太多源码实现,以很小的思考点为题展开,简单讲了一些 epoll 的思考。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Linux
    +关注

    关注

    87

    文章

    11304

    浏览量

    209487

原文标题:深入理解 Linux 的 epoll 机制

文章出处:【微信号:LinuxHub,微信公众号:Linux爱好者】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深入探讨Linux系统中的动态链接库机制

    本文将深入探讨Linux系统中的动态链接库机制,这其中包括但不限于全局符号介入、延迟绑定以及地址无关代码等内容。 引言 在软件开发过程中,动态库链接问题时常出现,这可能导致符号冲突,从而引起程序运行
    的头像 发表于 12-18 10:06 106次阅读
    深入探讨<b class='flag-5'>Linux</b>系统中的动态链接库<b class='flag-5'>机制</b>

    Linux--IO多路复用(select,poll,epoll)

    ,常用的系统调用包括select()、poll()和epoll()。这些机制允许程序监视多个描述符,一旦某个描述符就绪(通常是读就绪或写就绪),程序就会被通知进行相应的读写操作。这个过程通常涉及两个阶段
    的头像 发表于 11-06 16:13 281次阅读

    深度解析linux HID核心

    linux内核中,HID核心是完成HID功能的关键组件,如果内核支持HID,在启动过程中,则会对HID进行初始化,完成该操作的函数是hid_init(),实现在/drivers/hid/hid-core.c中。
    的头像 发表于 09-29 17:04 446次阅读
    <b class='flag-5'>深度</b>解析<b class='flag-5'>linux</b> HID核心

    详解linux内核的uevent机制

    linux内核中,uevent机制是一种内核和用户空间通信的机制,用于通知用户空间应用程序各种硬件更改或其他事件,比如插入或移除硬件设备(如USB驱动器或网络接口)。uevent表示“用户空间
    的头像 发表于 09-29 17:01 682次阅读

    深度解析linux时钟子系统

    linux内核中实现了一个CLK子系统,用于对上层提供各模块(例如需要时钟信号的外设,USB等)的时钟驱动接口,对下层提供具体SOC的时钟操作细节。
    的头像 发表于 09-29 16:46 469次阅读
    <b class='flag-5'>深度</b>解析<b class='flag-5'>linux</b>时钟子系统

    安全加速新选择:深度剖析境外SOCKS5代理的优势与应用

    在数字化时代,跨境网络访问已成为日常生活和工作中不可或缺的一部分。然而,网络限制、延迟和安全问题常常阻碍着我们的顺畅体验。境外SOCKS5代理作为一种高效、安全的网络解决方案,正逐渐成为许多用户的新选择。以下是对其优势与应用的深度剖析
    的头像 发表于 09-25 08:12 195次阅读

    IPv6 Sec机制深度解析与优势探讨

    IPv6的sec机制,主要指的是IPv6协议中内置的安全机制,特别是通过IP Sec协议集来实现的。IPv6在设计之初就考虑到了安全性问题,并内置了对IP Sec的支持,这使得IPv6网络在安全性能上相比IPv4有了显著的提升。
    的头像 发表于 09-07 10:12 329次阅读
    IPv6 Sec<b class='flag-5'>机制</b>的<b class='flag-5'>深度</b>解析与优势探讨

    从设计到实施:楼宇自控系统建设流程的深度剖析

    从设计到实施:楼宇自控系统建设流程的深度剖析 在探索现代建筑智能化的征途中,楼宇自控系统(BAS)无疑是引领变革的关键力量。它不仅深刻改变了建筑的管理模式,还极大地提升了建筑的运营效率与居住体验。从
    的头像 发表于 08-27 16:37 303次阅读

    MEMS 可编程振荡器的卓越代表:SiT9121 系列(1 to 220 MHZ)深度剖析

    MEMS 可编程振荡器的卓越代表:SiT9121 系列(1 to 220 MHZ)深度剖析
    的头像 发表于 08-13 10:56 535次阅读
    MEMS 可编程振荡器的卓越代表:SiT9121 系列(1 to 220 MHZ)<b class='flag-5'>深度</b><b class='flag-5'>剖析</b>

    探索巅峰性能 | 迅为RK3588开发板深度剖析

    探索巅峰性能 | 迅为RK3588开发板深度剖析
    的头像 发表于 08-12 14:07 858次阅读
    探索巅峰性能 | 迅为RK3588开发板<b class='flag-5'>深度</b><b class='flag-5'>剖析</b>

    Linux内核中的页面分配机制

    Linux内核中是如何分配出页面的,如果我们站在CPU的角度去看这个问题,CPU能分配出来的页面是以物理页面为单位的。也就是我们计算机中常讲的分页机制。本文就看下Linux内核是如何管理,释放和分配这些物理页面的。
    的头像 发表于 08-07 15:51 291次阅读
    <b class='flag-5'>Linux</b>内核中的页面分配<b class='flag-5'>机制</b>

    表面贴装低相位噪音晶体振荡器 DSO531SHH 深度剖析

    表面贴装低相位噪音晶体振荡器 DSO531SHH 深度剖析
    的头像 发表于 07-26 14:12 392次阅读
    表面贴装低相位噪音晶体振荡器 DSO531SHH <b class='flag-5'>深度</b><b class='flag-5'>剖析</b>

    深入剖析系统调用机制Linux 0.12源码

    CPU指令集,就是CPU中用来计算和控制计算机系统的一套指令的集合,实现软件指挥硬件执行的媒介,常见的CPU指令集有X86、ARM、MIPS、Alpha、RISC等
    发表于 04-19 14:29 569次阅读
    深入<b class='flag-5'>剖析</b>系统调用<b class='flag-5'>机制</b>的<b class='flag-5'>Linux</b> 0.12源码

    深入剖析Shell命令运行机制与权限管理

    Linux作为一个操作系统,称为"kernel",一般用户不能直接使用kernel,而通过"kernel"的外壳程序"Shell"和kernel进行沟通。
    发表于 03-08 12:36 632次阅读
    深入<b class='flag-5'>剖析</b>Shell命令运行<b class='flag-5'>机制</b>与权限管理

    Linux 5.15.71上使用CYW43455及其godzilla ,网络数据未通过的原因?

    我们在 Linux 5.15.71 上使用 CYW43455 及其 godzilla 版本。 有时,当设备从深度睡眠中恢复时,CYW43455 显示已连接(靠近或远离 AP 时 RSSI 正在改变
    发表于 03-01 17:33