我们知道物理内存是以页为单位进行管理的,每个内存页大小默认是4K(大页除外)。申请物理内存时,一般都是按顺序分配的,但释放内存的行为是随机的。随着系统运行时间变长后,将会出现以下情况:
如上图所示,当用户需要申请地址连续的 3 个内存页时,虽然系统中空闲的内存页数量足够,但由于空闲的内存页相对分散,从而导致分配失败。这些地址不连续的内存页被称为:内存碎片。
要解决这个问题也比较简单,只需要把空闲的内存块移动到一起即可。如下图所示:
网络上有句很有名的话:理想很美好,现实很骨感。
内存整理也是这样,看起来很简单,但实现起来就不那么简单了。因为在内存整理后,需要修正进程的虚拟内存与物理内存之间的映射关系。如下图所示:
但由于 Linux 内核有个名为 内存页反向映射 的功能,所以内存整理就变得简单起来。
接下来,我们将会分析内存碎片整理的原理与实现。
内存碎片整理原理
内存碎片整理的原理比较简单:在内存碎片整理开始前,会在内存区的头和尾各设置一个指针,头指针从头向尾扫描可移动的页,而尾指针从尾向头扫描空闲的页,当他们相遇时终止整理。下面说说内存随便整理的过程(原理参考了内核文档):
初始时内存状态:
在上图中,白色块表示空闲的内存页,而红色块表示已分配出去的内存页。在初始状态时,内存中存在多个碎片。如果此时要申请 3 个地址连续的内存页,那么将会申请失败。
内存碎片整理扫描开始:
头部指针从头扫描可移动页,而尾部指针从从尾扫描空闲页。在整理时,将可移动页的内容复制到空闲页中。复制完成后,将可移动内存页释放即可。
最后结果:
经过内存碎片整理后,如果现在要申请 3 个地址连续的内存页,就能申请成功了。
内存碎片整理实现
接下来,我们将会分析内存碎片整理的实现过程。
注:本文使用的是 Linux-2.6.36 版本的内存
1. 内存碎片整理时机
当要申请多个地址联系的内存页时,如果申请失败,将会进行内存碎片整理。其调用链如下:
alloc_pages_node() └→ __alloc_pages() └→ __alloc_pages_nodemask() └→ __alloc_pages_slowpath() └→ __alloc_pages_direct_compact()
当调用 alloc_pages_node() 函数申请多个地址连续的内存页失败时,将会触发调用 __alloc_pages_direct_compact() 函数来进行内存碎片整理。我们来看看 __alloc_pages_direct_compact() 函数的实现:
static struct page * __alloc_pages_direct_compact(gfp_t gfp_mask, unsigned int order, struct zonelist *zonelist, enum zone_type high_zoneidx, nodemask_t *nodemask, int alloc_flags, struct zone *preferred_zone, int migratetype, unsigned long *did_some_progress) { struct page *page; // 1. 如果申请一个内存页,那么就没有整理碎片的必要(这说明是内存不足,而不是内存碎片导致) if (!order || compaction_deferred(preferred_zone)) return NULL; // 2. 开始进行内存碎片整理 *did_some_progress = try_to_compact_pages(zonelist, order, gfp_mask, nodemask); if (*did_some_progress != COMPACT_SKIPPED) { ... // 3. 整理完内存碎片后,继续尝试申请内存块 page = get_page_from_freelist(gfp_mask, nodemask, order, zonelist, high_zoneidx, alloc_flags, preferred_zone, migratetype); if (page) { ... return page; } ... } return NULL; }
__alloc_pages_direct_compact() 函数是内存碎片整理的入口,其主要完成 3 个步骤:
先判断申请的内存块是否只有一个内存页,如果是,那么就没有整理碎片的必要(这说明是内存不足,而不是内存碎片导致)。
如果需要进行内存碎片整理,那么调用 try_to_compact_pages() 函数进行内存碎片整理。
整理完内存碎片后,调用 get_page_from_freelist() 函数继续尝试申请内存块。
2. 内存碎片整理过程
由于内存碎片整理的具体实现在 try_to_compact_pages() 函数中进行,所以我们继续来看看 try_to_compact_pages() 函数的实现:
unsigned long try_to_compact_pages(struct zonelist *zonelist, int order, gfp_t gfp_mask, nodemask_t *nodemask) { ... // 1. 遍历所有内存区(由于内核会把物理内存分成多个内存区进行管理) for_each_zone_zonelist_nodemask(zone, z, zonelist, high_zoneidx, nodemask) { ... // 2. 对内存区进行内存碎片整理 status = compact_zone_order(zone, order, gfp_mask); ... } return rc; }
可以看出,try_to_compact_pages() 函数最终会调用 compact_zone_order() 函数来进行内存碎片整理。我们只能进行来分析 compact_zone_order() 函数:
static unsigned long compact_zone_order(struct zone *zone, int order, gfp_t gfp_mask) { struct compact_control cc = { .nr_freepages = 0, .nr_migratepages = 0, .order = order, .migratetype = allocflags_to_migratetype(gfp_mask), .zone = zone, }; INIT_LIST_HEAD(&cc.freepages); INIT_LIST_HEAD(&cc.migratepages); return compact_zone(zone, &cc); }
到这里,我们还没有看到内存碎片整理的具体实现(调用链可真深啊 ^_^!),compact_zone_order() 函数也是构造了一些参数,然后继续调用 compact_zone() 来进行内存碎片整理:
static int compact_zone(struct zone *zone, struct compact_control *cc) { ... while ((ret = compact_finished(zone, cc)) == COMPACT_CONTINUE) { ... // 1. 收集可移动的内存页列表 if (!isolate_migratepages(zone, cc)) continue; ... // 2. 将可移动的内存页列表迁移到空闲列表中 migrate_pages(&cc->migratepages, compaction_alloc, (unsigned long)cc, 0); ... } ... return ret; }
在 compact_zone() 函数里,我们终于看到内存碎片整理的逻辑了。compact_zone() 函数主要完成 2 个步骤:
调用 isolate_migratepages() 函数收集可移动的内存页列表。
调用 migrate_pages() 函数将可移动的内存页列表迁移到空闲列表中。
这两个函数非常重要,我们分别来分析它们是怎么实现的。
isolate_migratepages() 函数
isolate_migratepages() 函数用于收集可移动的内存页列表,我们来看看其实现:
static unsigned long isolate_migratepages(struct zone *zone, struct compact_control *cc) { unsigned long low_pfn, end_pfn; struct list_head *migratelist = &cc->migratepages; ... // 1. 扫描内存区所有的内存页 for (; low_pfn < end_pfn; low_pfn++) { struct page *page; ... // 2. 通过内存页的编号获取内存页对象 page = pfn_to_page(low_pfn); ... // 3. 判断内存页是否可移动内存页,如果不是可移动内存页,那么就跳过 if (__isolate_lru_page(page, ISOLATE_BOTH, 0) != 0) continue; // 4. 将内存页从 LRU 队列中删除 del_page_from_lru_list(zone, page, page_lru(page)); // 5. 添加到可移动内存页列表中 list_add(&page->lru, migratelist); ... cc->nr_migratepages++; ... } ... return cc->nr_migratepages; }
isolate_migratepages() 函数主要完成 5 个步骤,分别是:
扫描内存区所有的内存页(与内存碎片整理原理一致)。
通过内存页的编号获取内存页对象。
判断内存页是否可移动内存页,如果不是可移动内存页,那么就跳过。
将内存页从 LRU 队列中删除,这样可避免被其他进程回收这个内存页。
添加到可移动内存页列表中。
当完成这 5 个步骤后,内核就收集到可移动的内存页列表。
migrate_pages() 函数
migrate_pages() 函数负责将可移动的内存页列表迁移到空闲列表中,我们来分析一下其实现过程:
int migrate_pages(struct list_head *from, new_page_t get_new_page, unsigned long private, int offlining) { ... for (pass = 0; pass < 10 && retry; pass++) { retry = 0; // 1. 遍历可移动内存页列表 list_for_each_entry_safe(page, page2, from, lru) { ... // 2. 将可移动内存页迁移到空闲内存页中 rc = unmap_and_move(get_new_page, private, page, pass > 2, offlining); switch(rc) { case -ENOMEM: goto out; case -EAGAIN: retry++; break; case 0: break; default: nr_failed++; break; } } } ... return nr_failed + retry; }
migrate_pages() 函数的逻辑很简单,主要完成 2 个步骤:
遍历可移动内存页列表,这个列表就是通过 isolate_migratepages() 函数收集的可移动内存页列表。
调用 unmap_and_move() 函数将可移动内存页迁移到空闲内存页中。
可以看出,具体的内存迁移过程在 unmap_and_move() 函数中实现。我们来看看 unmap_and_move() 函数的实现:
static int unmap_and_move(new_page_t get_new_page, unsigned long private, struct page *page, int force, int offlining) { ... // 1. 从内存区中找到一个空闲的内存页 struct page *newpage = get_new_page(page, private, &result); ... // 2. 解开所有使用了当前可移动内存页的进程的虚拟内存映射(涉及到内存页反向映射) try_to_unmap(page, TTU_MIGRATION|TTU_IGNORE_MLOCK|TTU_IGNORE_ACCESS); skip_unmap: // 3. 将可移动内存页的数据复制到空闲内存页中 if (!page_mapped(page)) rc = move_to_new_page(newpage, page, remap_swapcache); ... return rc; }
由于 unmap_and_move() 函数的实现比较复杂,所以我们对其进行了简化。可以看出,unmap_and_move() 函数主要完成 3 个工作:
从内存区中找到一个空闲的内存页。根据内存碎片整理算法,会从内存区最后开始扫描,找到合适的空闲内存页。
由于将可移动内存页迁移到空闲内存页后,进程的虚拟内存映射将会发生变化。所以,这里要调用 try_to_unmap() 函数来解开所有使用了当前可移动内存页的映射。
调用 move_to_new_page() 函数将可移动内存页的数据复制到空闲内存页中。在 move_to_new_page() 函数中,还会重新建立进程的虚拟内存映射,这样使用了当前可移动内存页的进程就能够正常运行。
至此,内存碎片整理的过程已经分析完毕。
不过细心的读者可能发现,在文中并没有分析重新构建虚拟内存映射的过程。是的,因为重新构建虚拟内存映射要涉及到 内存页反向映射 的知识点,后续的文章会介绍这个知识点,所以这里就不作详细分析了。
总结
从上面的分析可知,内存碎片整理 是为了解决:在申请多个地址连续的内存页时,空闲内存页数量充足,但还是分配失败的情况。
但由于内存碎片整理需要消耗大量的 CPU 时间,所以我们在申请内存时,可以通过指定 __GFP_WAIT 标志位(不等待)来避免内存碎片整理过程。
编辑:黄飞
评论
查看更多