0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Linux内核中页表映射的基础知识

嵌入式与Linux那些事 来源:嵌入式与Linux那些事 2024-08-07 15:53 次阅读

来源:嵌入式Linux那些事公众号

页表的一些术语

现在Linux内核中支持四级页表的映射,我们先看下内核中关于页表的一些术语:

全局目录项,PGD(Page Global Directory)

上级目录项,PUD(Page Upper Directory)

中间目录项,PMD(Page Middle Directory)

页表项,(Page Table)

大家在看内核代码时会经常看的以上术语,但在ARM芯片手册中并没有用到这些术语,而是使用L1,L2,L3页表这种术语。

ARM32 虚拟地址到物理地址的转换

虚拟地址的32个bit位可以分为3个域,最高12bit位20~31位称为L1索引,叫做PGD,页面目录。中间的8个bit位叫做L2索引,在Linux内核中叫做PT,页表。最低的12位叫做页索引。

在ARM处理器中,TTBRx寄存器存放着页表基地址,我们这里的一级页表有4096个页表项。每个表项中存放着二级表项的基地址。我们可以通过虚拟地址的L1索引访问一级页表,访问一级页表相当于数组访问。

二级页表通常是动态分配的,可以通过虚拟地址的中间8bit位L2索引访问二级页表,在L2索引中存放着最终物理地址的高20bit位,然后和虚拟地址的低12bit位就组成了最终的物理地址。以上就是虚拟地址转换为物理地址的过程。

MMU访问页表是硬件实现的,但页表的创建和填充需要Linux内核来填充。通常,一级页表和二级页表存放在主存储器中。

image.png

ARM32 一级页表的页表项

下面这张图来自ARMV7的手册。

image.png

一级页表项这里有三种情况:一种是无效的,第二种是一级页表的表项。第三种是段映射的页表项。

bit 0 ~ bit 1:用来表示这个页表项是一级页表还是段映射的表项。

PXN:PL1 表示是否可以执行这段代码,为0表示可执行,1表示不可执行。

NS:none-security bit,用于安全扩展。

Domain:Domain域,指明所属的域,Linux中只使用了3个域。

bit31:bit10:指向二级页表基地址。

二级页表的表项

image.png

bit0:禁止执行标志。1表示禁止执行,0表示可执行

bit1:区分是大页还是小页

C/B bit:内存区域属性

TEX[2:0]:内存区域属性

AP[0:1] :访问权限

S:是否可共享

nG:用于TLB

ARM64 页表

ARM体系结构从ARMV8-A开始就支持64bit位,最大支持48根地址线。那为什么不支持64根地址线呢?主要原因是48根地址线时已支持最大访问空间为256TB(内核空间和用户空间分别256TB)满足了大部分应用的需求。而且,64根地址线时,芯片的设计复杂度会急剧增加。ARMV8-A架构中,支持4KB,16KB和64KB的页,支持3级或者4级映射。

下面我们以4KB大小页+4级映射介绍下虚拟地址到物理地址的映射过程。

image.png

0~11 :页索引

bit 63 :页表基地址选择位,ARMV8架构中有2两个页表基地址,一个用于用户空间,一个用户内核空间。

39~47:L0索引

30~38:L1索引

21~29:L2索引

12~20:L3 索引

假设页表基地址为TTBRx,访问页表基地址就能访问到L0页表的基地址,可以使用L0索引的值作为offset去访问L0页表。

L0的页表项包含了下一级L1页表的基地址,同样的,可以使用L1索引的值作为offset去访问L2页表。以此类推。

最后通过L3的页表项可以得到物理地址的bit12 ~ 47位,这个时候再将虚拟地址的页索引位对应到物理地址的0~11就是完整的物理地址。

Linux内核关于页表的函数

Linux内核中页表操作的宏定义

Linux内核中封装了很多宏来处理页表

#definepgd_offset_k(addr)pgd_offset(&init_mm,addr)//由虚拟地址来获取内核页表的PGD页表的相应的页表项
#definepgd_offset(mm,addr)((mm)->pgd+pgd_index(addr))//由虚拟地址来获取用户进程的页表中相应的PGD表项
pgd_index(addr)//由虚拟地址找到PGD页表的索引
pte_index(addr)//由虚拟地址找到PT页表的索引
pte_offset_kernel(pmd,addr)//查找内核页表中对应的PT页表的表项

判断页表项的状态

#definepte_none(pte)(!pte_val(pte))//pte是否存在
#definepte_present(pte)(pte_isset((pte),L_PTE_PRESENT))//present比特位
#definepte_valid(pte)(pte_isset((pte),L_PTE_VALID))//pte是否有效
#definepte_accessible(mm,pte)(mm_tlb_flush_pending(mm)?pte_present(pte):pte_valid(pte))
#definepte_write(pte)(pte_isclear((pte),L_PTE_RDONLY))//pte是否可写
#definepte_dirty(pte)(pte_isset((pte),L_PTE_DIRTY))//pte是否有脏数据
#definepte_young(pte)(pte_isset((pte),L_PTE_YOUNG))//
#definepte_exec(pte)(pte_isclear((pte),L_PTE_XN))

修改页表

mk_pte()//创建的相应的页表项
pte_mkdirty()//设置dirty标志位
pte_mkold()//清除Accessed标志位
pte_mkclean()//清除dirty标志位
pte_mkwrite()//设置读写标志位
pte_wrprotect()//清除读写标志位
pte_mkyoung()//设置Accessed标志位
set_pte_at()//设置页表项到硬件中

例子1 内核页表的映射

前面我们介绍了很多关于内核的宏,函数,下面我们通过实际的例子学习如何使用这些宏

系统初始化时需要把kernel image区域和线性映射区建立页表映射,这个时候依次调用start_kernel() --> setup_arch() --> paging_init() --> map_lowmem() --> create_mapping()去创建内核页表。我们可以研究下内核是如何建立内核页表的映射。

/*
*Createthepagedirectoryentriesandanynecessary
*pagetablesforthemappingspecifiedby`md'.We
*areabletocopeherewithvaryingsizesandaddress
*offsets,andwetakefulladvantageofsectionsand
*supersections.
*/
staticvoid__initcreate_mapping(structmap_desc*md)
{
if(md->virtual!=vectors_base()&&md->virtual< TASK_SIZE) {
  pr_warn("BUG: not creating mapping for 0x%08llx at 0x%08lx in user region
",
   (long long)__pfn_to_phys((u64)md->pfn),md->virtual);
return;
}

if(md->type==MT_DEVICE&&
md->virtual>=PAGE_OFFSET&&md->virtual< FIXADDR_START &&
     (md->virtual< VMALLOC_START || md->virtual>=VMALLOC_END)){
pr_warn("BUG:mappingfor0x%08llxat0x%08lxoutofvmallocspace
",
(longlong)__pfn_to_phys((u64)md->pfn),md->virtual);
}

__create_mapping(&init_mm,md,early_alloc,false);
}

首先会检查映射的虚拟地址是否在内核向量表的基址以上,并且小于用户空间的TASK_SIZE。TASK_SIZE通常被定义为0xC0000000(3GB),表示用户空间的虚拟地址范围从0到3GB。对于64位体系结构,TASK_SIZE通常被定义为0x00007fffffffffff(128TB)。

接着会检查映射的类型是否为设备类型,并且虚拟地址在页偏移以上且低于FIXADDR_START,且不在VMALLOC_START和VMALLOC_END之间(即不在vmalloc空间中)。

最后会调用__create_mapping函数创建映射。传入初始内存管理结构体init_mm、映射描述结构体md、早期内存分配函数early_alloc,以及false标志。

/*
*Createamappingforthegivenmapdescriptor,md.Thefunction
*__create_mappingisusedforbothkernelandusermodemappings.
*
*@mm:themmstructurewherethemappingwillbecreated
*@md:themapdescriptorwiththedetailsofthemapping
*@alloc:apointertoafunctionusedtoallocatepagesforthemapping
*@ng:abooleanflagindicatingifthemappingisnon-global
*/
staticvoid__init__create_mapping(structmm_struct*mm,structmap_desc*md,
void*(*alloc)(unsignedlongsz),
boolng)
{
unsignedlongaddr,length,end;
phys_addr_tphys;
conststructmem_type*type;
pgd_t*pgd;

type=&mem_types[md->type];

#ifndefCONFIG_ARM_LPAE----------------------(1)
/*
*Catch36-bitaddresses
*/
if(md->pfn>=0x100000){
create_36bit_mapping(mm,md,type,ng);
return;
}
#endif

addr=md->virtual&PAGE_MASK;----------------------(2)
phys=__pfn_to_phys(md->pfn);
length=PAGE_ALIGN(md->length+(md->virtual&~PAGE_MASK));

/*
*Checkifthemappingcanbemadeusingpages.
*Ifnot,printawarningandignoretherequest.
*/
if(type->prot_l1==0&&((addr|phys|length)&~SECTION_MASK)){----------------------(3)
pr_warn("BUG:mapfor0x%08llxat0x%08lxcannotbemappedusingpages,ignoring.
",
(longlong)__pfn_to_phys(md->pfn),addr);
return;
}

pgd=pgd_offset(mm,addr);
end=addr+length;----------------------(4)
do{
unsignedlongnext=pgd_addr_end(addr,end);----------------------(5)

/*
*Allocateapagedirectoryentryforthisrange.
*Initializeitwiththeappropriatepagetable
*andmakethemapping.
*/
alloc_init_p4d(pgd,addr,next,phys,type,alloc,ng);----------------------(6)

/*
*Updatethephysvaluewiththeendofthelastmapped
*pagesothatthenextrangecanbeallocatedproperly.
*/
phys+=next-addr;
addr=next;----------------------(7)
}while(pgd++,addr!=end);
}

__create_mapping完成中创建映射的功能,根据给定的映射描述结构体,将虚拟地址与物理地址进行映射。

(1) 系统没有启用ARM LPAE(Large Physical Address Extension),并且物理页帧号大于等于0x100000,调用create_36bit_mapping函数进行处理,然后返回。

在早期阶段,地址总线也是32位的,即4G的内存地址空间。随着应用程序越来越丰富,占用的内存总量很容易就超过了4G。但由于编程模型和地址总线的限制,是无法使用超过4G的物理地址的。所以PAE/LPAE这种大内存地址方案应运而生。

PAE/LAPE方案其它很简单,编程视角依然还是32位(4G)的地址空间,这层是虚拟地址空间。而计算机地址总线却使用超过32位的,比如X86的就使用36位(64G)的地址总线,ARM使用的是48位(64G)的地址总线。中间是通过保护模式(X86架构)或者MMU机制(ARM架构)提供的分页技术(paging)实现32位虚拟地址访问超过4G的物理内存空间。这项技术的关键是分页技术中的页表项使用超过4字节的映射表 (ARM在LPAE模式下,页表项是8字节),因为使用超过4字节映射表,就可以指示超过4G的内存空间。

(2) 获取虚拟地址的起始地址,因为地址映射的最小单位是page,因此这里进行mapping的虚拟地址需要对齐到page size,同样的,长度也需要对齐到page size。

(3) 首先检查映射类型的prot_l1字段是否为0。prot_l1表示第一级页表(Level 1 Page Table)的保护位。如果prot_l1为0,表示无法使用页面进行映射。如果地址、物理地址和长度与SECTION_MASK存在非零位,表示页面映射要求地址和长度并未按页面大小对齐。

(4)设置了页全局目录(pgd)的初始偏移,并将结束地址(end)设置为起始地址(addr)加上长度(length)。

(5)然后,使用pgd_addr_end函数计算下一个地址(next),该地址是当前地址和结束地址之间的较小值。

(6)调用alloc_init_p4d函数,为当前范围内的地址分配一个页目录项,初始化它的页表,并进行映射。该函数使用给定的参数pgd、addr、next、phys、type、alloc和ng来执行这些操作。

(7)更新phys的值,使其加上当前范围内映射的页面数,以便正确分配下一个范围的地址。最后,在循环的末尾,递增pgd的值,并检查是否达到了结束地址。如果没有达到,继续循环处理下一个地址范围。

例子2 进程页表的映射

remap_pfn_range函数对于写过Linux驱动的人都不陌生,很多驱动程序的mmap函数都会调用到该函数,该函数实现了物理空间到用户进程的映射。

比如我们在用户空间读写SOC的寄存器时,ARM中的寄存器通常都是memory map形式的,在用户空间都要读写ARM空间的寄存器,通常都要操作/dev/mem设备来实现,最后都会调用到remap_pfn_range来实现。

VMA:准备要映射的进程地址空间的VMA的数据结构

addr:要映射到 用户空间的起始地址

pfn:准备要映射的物理内存的页帧号

size:表示要映射的大小

prot:表示要映射的属性

接下来我们从页表的角度看下函数的实现

intremap_pfn_range(structvm_area_struct*vma,unsignedlongaddr,
unsignedlongpfn,unsignedlongsize,pgprot_tprot)
{
pgd_t*pgd;
unsignedlongnext;
unsignedlongend=addr+PAGE_ALIGN(size);
structmm_struct*mm=vma->vm_mm;//从VMA获取当前进程的mm_struct结构
unsignedlongremap_pfn=pfn;
interr;

if(WARN_ON_ONCE(!PAGE_ALIGNED(addr)))
return-EINVAL;

if(is_cow_mapping(vma->vm_flags)){
if(addr!=vma->vm_start||end!=vma->vm_end)
return-EINVAL;
vma->vm_pgoff=pfn;
}

err=track_pfn_remap(vma,&prot,remap_pfn,addr,PAGE_ALIGN(size));
if(err)
return-EINVAL;

vma->vm_flags|=VM_IO|VM_PFNMAP|VM_DONTEXPAND|VM_DONTDUMP;//设置vm_flags,remap_pfn_range直接使用物理内存。Linux内核对物理页面分为两类:normalmapping,specialmapping。specialmapping就是内核不希望该页面参与到内核的页面回收等活动中。

BUG_ON(addr>=end);
pfn-=addr>>PAGE_SHIFT;
pgd=pgd_offset(mm,addr);//找到页表项
flush_cache_range(vma,addr,end);
//以PGD_SIZE为步长遍历页表
do{
next=pgd_addr_end(addr,end);//获取下一个PGD页表项的管辖的地址范围的起始地址
err=remap_p4d_range(mm,pgd,addr,next,
pfn+(addr>>PAGE_SHIFT),prot);//继续遍历下一级页表
if(err)
break;
}while(pgd++,addr=next,addr!=end);

if(err)
untrack_pfn(vma,remap_pfn,PAGE_ALIGN(size));

returnerr;
}

遍历PUD页表

staticinlineintremap_pud_range(structmm_struct*mm,p4d_t*p4d,
unsignedlongaddr,unsignedlongend,
unsignedlongpfn,pgprot_tprot)
{
pud_t*pud;
unsignedlongnext;
interr;

pfn-=addr>>PAGE_SHIFT;
pud=pud_alloc(mm,p4d,addr);//找到pud页表项。对于二级页表来说,PUD指向PGD
if(!pud)
return-ENOMEM;
//以PUD_SIZE为步长遍历页表
do{
next=pud_addr_end(addr,end);//获取下一个PUD页表项的管辖的地址范围的起始地址
err=remap_pmd_range(mm,pud,addr,next,
pfn+(addr>>PAGE_SHIFT),prot);//继续遍历下一级页表
if(err)
returnerr;
}while(pud++,addr=next,addr!=end);
return0;
}

Linux内核中实现了4级页表,对于ARM32来说,它是如何跳过中间两级页表的呢?大家可以看下以下两个宏的实现

/*Findanentryinthesecond-levelpagetable..*/
#ifndefpmd_offset
staticinlinepmd_t*pmd_offset(pud_t*pud,unsignedlongaddress)
{
return(pmd_t*)pud_page_vaddr(*pud)+pmd_index(address);
}
#definepmd_offsetpmd_offset
#endif

接收指向页上级目录项的指针 pud 和线性地址 addr 作为参数。这个宏产生目录项 addr 在页中间目录中的偏移地址。在两级或三级分页系统中,它产生 pud ,即页全局目录项的地址。

#ifndefpud_offset
staticinlinepud_t*pud_offset(p4d_t*p4d,unsignedlongaddress)
{
return(pud_t*)p4d_page_vaddr(*p4d)+pud_index(address);
}
#definepud_offsetpud_offset
#endif

参数为指向页全局目录项的指针 pgd 和线性地址 addr 。这个宏产生页上级目录中目录项 addr 对应的线性地址。在两级或三级分页系统中,该宏产生 pgd ,即一个页全局目录项的地址。

遍历PMD页表

remap_pmd_range函数和remap_pud_range类似。

staticinlineintioremap_pmd_range(pud_t*pud,unsignedlongaddr,
unsignedlongend,phys_addr_tphys_addr,pgprot_tprot,
pgtbl_mod_mask*mask)
{
pmd_t*pmd;
unsignedlongnext;

pmd=pmd_alloc_track(&init_mm,pud,addr,mask);//找到对应的pmd页表项,对于二级页表来说,pmd指向pud
if(!pmd)
return-ENOMEM;
//以PMD_SIZE为步长遍历页表
do{
next=pmd_addr_end(addr,end);//获取下一个PMD页表项的管辖的地址范围的起始地址

if(ioremap_try_huge_pmd(pmd,addr,next,phys_addr,prot)){
*mask|=PGTBL_PMD_MODIFIED;
continue;
}
//继续遍历下一级页表
if(ioremap_pte_range(pmd,addr,next,phys_addr,prot,mask))
return-ENOMEM;
}while(pmd++,phys_addr+=(next-addr),addr=next,addr!=end);
return0;
}

遍历PT页表

/*
*mapsarangeofphysicalmemoryintotherequestedpages.theold
*mappingsareremoved.anyreferencestononexistentpagesresults
*innullmappings(currentlytreatedas"copy-on-access")
*/
staticintremap_pte_range(structmm_struct*mm,pmd_t*pmd,
unsignedlongaddr,unsignedlongend,
unsignedlongpfn,pgprot_tprot)
{
pte_t*pte,*mapped_pte;
spinlock_t*ptl;
interr=0;

mapped_pte=pte=pte_alloc_map_lock(mm,pmd,addr,&ptl);//寻找相应的pte页表项。注意这里需要申请一个spinlock锁用来保护修改pte页表
if(!pte)
return-ENOMEM;
arch_enter_lazy_mmu_mode();
//以PAGE_SIZE为步长遍历PT页表
do{
BUG_ON(!pte_none(*pte));
if(!pfn_modify_allowed(pfn,prot)){
err=-EACCES;
break;
}
/*
*pte_none()判断这个pte是否存在
*pfn_pte()由页帧号pfn得到pte
*pte_mkspecial()设置软件的PTE_SPECIAL标志位(三级页表才会用该标志位)
*set_pte_at()把pte设置到硬件页表中
*/
set_pte_at(mm,addr,pte,pte_mkspecial(pfn_pte(pfn,prot)));
pfn++;
}while(pte++,addr+=PAGE_SIZE,addr!=end);
arch_leave_lazy_mmu_mode();
pte_unmap_unlock(mapped_pte,ptl);//PT页表设置完成后,需要把spinlock释放
returnerr;
}

缺页中断do_anonymous_page

在缺页中断处理中,匿名页面的触发条件为下面的两个条件,当满足这两个条件的时候就会调用do_anonymous_page函数来处理匿名映射缺页异常,代码实现在mm/memory.c文件中

发生缺页的地址所在页表项不存在

是匿名页,即是vma->vm_ops为空,即vm_operations函数指针为空

我们知道在进程的task_struct结构中包含了一个mm_struct结构的指针,mm_struct用来描述一个进程的虚拟地址空间。进程的 mm_struct 则包含装入的可执行映像信息以及进程的页目录指针pgd。该结构还包含有指向 ~vm_area_struct ~结构的几个指针,每个 vm_area_struct 代表进程的一个虚拟地址区间。vm_area_struct 结构含有指向vm_operations_struct 结构的一个指针,vm_operations_struct 描述了在这个区间的操作。vm_operations 结构中包含的是函数指针;其中,open、close 分别用于虚拟区间的打开、关闭,而nopage 用于当虚存页面不在物理内存而引起的“缺页异常”时所应该调用的函数

/*
*Weenterwithnon-exclusivemmap_lock(toexcludevmachanges,
*butallowconcurrentfaults),andptemappedbutnotyetlocked.
*Wereturnwithmmap_lockstillheld,butpteunmappedandunlocked.
*/
staticvm_fault_tdo_anonymous_page(structvm_fault*vmf)
{
structvm_area_struct*vma=vmf->vma;
structpage*page;
vm_fault_tret=0;
pte_tentry;

/*Filemappingwithout->vm_ops?*/
if(vma->vm_flags&VM_SHARED)-----------------(1)
returnVM_FAULT_SIGBUS;

/*
*Usepte_alloc()insteadofpte_alloc_map().Wecan'trun
*pte_offset_map()onpmdswhereahugepmdmightbecreated
*fromadifferentthread.
*
*pte_alloc_map()issafetouseundermmap_write_lock(mm)orwhen
*parallelthreadsareexcludedbyothermeans.
*
*Hereweonlyhavemmap_read_lock(mm).
*/
if(pte_alloc(vma->vm_mm,vmf->pmd))-----------------(2)
returnVM_FAULT_OOM;

/*Seethecommentinpte_alloc_one_map()*/
if(unlikely(pmd_trans_unstable(vmf->pmd)))
return0;

/*Usethezero-pageforreads*/
if(!(vmf->flags&FAULT_FLAG_WRITE)&&
!mm_forbids_zeropage(vma->vm_mm)){-----------------(3)
entry=pte_mkspecial(pfn_pte(my_zero_pfn(vmf->address),-----------------(4)
vma->vm_page_prot));
vmf->pte=pte_offset_map_lock(vma->vm_mm,vmf->pmd,-----------------(5)
vmf->address,&vmf->ptl);
if(!pte_none(*vmf->pte)){-----------------(6)
update_mmu_tlb(vma,vmf->address,vmf->pte);
gotounlock;
}
ret=check_stable_address_space(vma->vm_mm);-----------------(7)
if(ret)
gotounlock;
/*Deliverthepagefaulttouserland,checkinsidePTlock*/
if(userfaultfd_missing(vma)){-----------------(8)
pte_unmap_unlock(vmf->pte,vmf->ptl);
returnhandle_userfault(vmf,VM_UFFD_MISSING);
}
gotosetpte;
}

/*Allocateourownprivatepage.*/
if(unlikely(anon_vma_prepare(vma)))-----------------(9)
gotooom;
page=alloc_zeroed_user_highpage_movable(vma,vmf->address);-----------------(10)
if(!page)
gotooom;

if(mem_cgroup_charge(page,vma->vm_mm,GFP_KERNEL))-----------------(11)
gotooom_free_page;
cgroup_throttle_swaprate(page,GFP_KERNEL);

/*
*Thememorybarrierinside__SetPageUptodatemakessurethat
*precedingstorestothepagecontentsbecomevisiblebefore
*theset_pte_at()write.
*/
__SetPageUptodate(page);-----------------(12)

entry=mk_pte(page,vma->vm_page_prot);-----------------(13)
entry=pte_sw_mkyoung(entry);
if(vma->vm_flags&VM_WRITE)
entry=pte_mkwrite(pte_mkdirty(entry));-----------------(14)

vmf->pte=pte_offset_map_lock(vma->vm_mm,vmf->pmd,vmf->address,
&vmf->ptl);-----------------(15)
if(!pte_none(*vmf->pte)){
update_mmu_cache(vma,vmf->address,vmf->pte);-----------------(16)
gotorelease;
}

ret=check_stable_address_space(vma->vm_mm);-----------------(17)
if(ret)
gotorelease;

/*Deliverthepagefaulttouserland,checkinsidePTlock*/
if(userfaultfd_missing(vma)){
pte_unmap_unlock(vmf->pte,vmf->ptl);
put_page(page);
returnhandle_userfault(vmf,VM_UFFD_MISSING);
}

inc_mm_counter_fast(vma->vm_mm,MM_ANONPAGES);-----------------(18)
page_add_new_anon_rmap(page,vma,vmf->address,false);-----------------(19)
lru_cache_add_inactive_or_unevictable(page,vma);-----------------(20)
setpte:
set_pte_at(vma->vm_mm,vmf->address,vmf->pte,entry);-----------------(21)

/*Noneedtoinvalidate-itwasnon-presentbefore*/
update_mmu_cache(vma,vmf->address,vmf->pte);-----------------(22)
unlock:
pte_unmap_unlock(vmf->pte,vmf->ptl);
returnret;
release:
put_page(page);
gotounlock;
oom_free_page:
put_page(page);
oom:
returnVM_FAULT_OOM;
}

如果是共享则意味着之前以及通过mmap方式在其他进程申请过物理内存,vma应该存在对应物理内存映射,不应该再发生page fault

调用pte_alloc函数来为页面表表项(PTE)分配内存,并传递vma->vm_mm和vmf->pmd作为参数

如果页面错误不是写操作且内存管理子系统允许使用零页,则映射到零页面

生成一个特殊页表项,映射到专有的0页,一页大小

据pmd,address找到pte表对应的一个表项,并且lock住

如果页表项不为空,则调用update_mmu_tlb函数更新内存管理单元(MMU)的转换查找缓冲(TLB)并且跳unlock。

检查地址空间的稳定性。

如果发现userfaultfd缺失,则解除映射并解锁页面表项(PTE)

对vma进行预处理,主要是创建anon_vma和anon_vma_chain,为后续反向映射做准备

从高端内存区的伙伴系统中获取一个页,这个页会清0

申请内存成功之后,将新申请的page加入到mcgroup管理

设置此页的PG_uptodate标志,表示此页是最新

将页面和页面保护位(vma->vm_page_prot)组合成一个 PTE 条目。

如果vma区是可写的,则给页表项添加允许写标志。将 PTE 条目的 Dirty 位和 Young 位设置为1。

锁定 pte 条目,防止同时更新和更多虚拟内存对物理内存映射

pte条目存在的话,让mmu更新页表项,应该会清除tlb

检查给定的内存是否从用户拷贝过来的。如果从用户拷贝过来的内存不稳定,不用处理。

增加mm_struct中匿名页的统计计数

对这个新页进行反向映射,主要工作是:设置此页的_mapcount = 0,说明此页正在使用,但是是非共享的(>0是共享)。设置page->mapping最低位为1,page->mapping指向此vma->anon_vma,page->index存放此page在vma中的第几页。

通过判断,将页加入到活动lru缓存或者不能换出页的lru链表

将上面配置好的页表项写入页表

更新mmu的cache

do_anonymous_page首先判断一下匿名页是否是共享的,如果是共享的匿名映射,但是虚拟内存区域没有提供虚拟内存操作集合就返回错误;然后判断一下pte页表是否存在,如果直接页表不存在,那么分配页表;

接下来判读缺页异常是由读操作触发的还是写操作触发的,如果是读操作触发的,生成特殊的页表项,映射到专用的零页,设置页表项后返回;如果是写操作触发的,需要初始化vma中的anon_vma_chain和anon_vma,分配物理页用于匿名映射,调用mk_pte函数生成页表项,设置页表项的脏标志位和写权限,设置页表项后返回。

小结

从以上的分析中,我们可以学习到关于常用的页表的宏的使用方法。Linux内核就是这样,你不光可以看到某个函数的实现,还可以看到某个函数的调用过程。所以,大家对某个函数有疑问的时候,可以顺着这样的思路去学习。

ARM32页表和Linux页表那些奇葩的地方

ARM32硬件页表中PGD页目录项PGD是从20位开始的,但是为何头文件定义是从21位开始?

历史原因:Linux最初是基于x86的体系结构设计的,因此Linux内核很多的头文件的定义都是基于x86的,特别是关于PTE页表项里面的很多比特位的定义。因此ARM在移植到Linux时只能参考x86版本的Linux内核的实现。

X86的PGD是从bit22 ~ bit31,总共10bit位,1024页表项。PT页表从bit12 ~ bit 21 ,总共 10 bit位,1024页表项。

ARM的PGD是从bit20 ~ bit31,总共12bit, 4096页表项。PT域从bit12 ~ bit 19,总共8bit,2556页表项。

X86和ARM页表最大的差异在于PTE页表内容的不同。

5475ebde-27a8-11ef-91d2-92fbcf53809c.png

Linux内核版本的PTE比特位的定义

/*
*"Linux"PTEdefinitionsforLPAE.
*
*Thesebitsoverlapwiththehardwarebitsbutthenamingispreservedfor
*consistencywiththeclassicpagetableformat.
*/
#defineL_PTE_VALID(_AT(pteval_t,1)<< 0)  /* Valid */
#define L_PTE_PRESENT  (_AT(pteval_t, 3) << 0)  /* Present */
#define L_PTE_USER  (_AT(pteval_t, 1) << 6)  /* AP[1] */
#define L_PTE_SHARED  (_AT(pteval_t, 3) << 8)  /* SH[1:0], inner shareable */
#define L_PTE_YOUNG  (_AT(pteval_t, 1) << 10) /* AF */
#define L_PTE_XN  (_AT(pteval_t, 1) << 54) /* XN */
#define L_PTE_DIRTY  (_AT(pteval_t, 1) << 55)
#define L_PTE_SPECIAL  (_AT(pteval_t, 1) << 56)
#define L_PTE_NONE  (_AT(pteval_t, 1) << 57) /* PROT_NONE */
#define L_PTE_RDONLY  (_AT(pteval_t, 1) << 58) /* READ ONLY */

#define L_PMD_SECT_VALID (_AT(pmdval_t, 1) << 0)
#define L_PMD_SECT_DIRTY (_AT(pmdval_t, 1) << 55)
#define L_PMD_SECT_NONE  (_AT(pmdval_t, 1) << 57)
#define L_PMD_SECT_RDONLY (_AT(pteval_t, 1) << 58)

ARM32的PTE比特位的定义

/*
*-extendedsmallpage/tinypage
*/
#definePTE_EXT_XN(_AT(pteval_t,1)<< 0)  /* v6 */
#define PTE_EXT_AP_MASK  (_AT(pteval_t, 3) << 4)
#define PTE_EXT_AP0  (_AT(pteval_t, 1) << 4)
#define PTE_EXT_AP1  (_AT(pteval_t, 2) << 4)
#define PTE_EXT_AP_UNO_SRO (_AT(pteval_t, 0) << 4)
#define PTE_EXT_AP_UNO_SRW (PTE_EXT_AP0)
#define PTE_EXT_AP_URO_SRW (PTE_EXT_AP1)
#define PTE_EXT_AP_URW_SRW (PTE_EXT_AP1|PTE_EXT_AP0)
#define PTE_EXT_TEX(x)  (_AT(pteval_t, (x)) << 6) /* v5 */
#define PTE_EXT_APX  (_AT(pteval_t, 1) << 9)  /* v6 */
#define PTE_EXT_COHERENT (_AT(pteval_t, 1) << 9)  /* XScale3 */
#define PTE_EXT_SHARED  (_AT(pteval_t, 1) << 10) /* v6 */
#define PTE_EXT_NG  (_AT(pteval_t, 1) << 11) /* v6 */

那X86和ARM的页表差距这么大,软件怎么设计呢?Linux内核的内存管理已经适配了X86的页表项,我们可以通过软件适配的办法来解决这个问题。因此,ARM公司在移植该方案时提出了两套页表的方案。一套页表是为了迎合ARM硬件的真实页表,另一套页表是为了迎合Linux真实的页表。

对于PTE页表来说,一下子就多出了一套页表,一套页表256表项,每个表项占用4字节。为了软件实现的方便,软件会把两个页表合并成一个页表。4套页表正好占用256 * 4 * 4 = 4K的空间。因此,Linux实现的时候,就分配了一个page 来存放这些页表。

这一套方案的话,相当于每个PGD页表项有8字节,包含指向两套PTE页表项的entry。每4个字节指向一个物理的二级页表。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 内核
    +关注

    关注

    3

    文章

    1357

    浏览量

    40177
  • Linux
    +关注

    关注

    87

    文章

    11191

    浏览量

    208623
  • 内存管理
    +关注

    关注

    0

    文章

    168

    浏览量

    14112

原文标题:【内存管理】页表映射基础知识

文章出处:【微信号:嵌入式与Linux那些事,微信公众号:嵌入式与Linux那些事】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    详解Linux系统文件目录和Linux系统页表结构

    :是一种特殊的数据结构,记录着页面和框的对应关系。(映射表) 的作用:是内存非连续分
    的头像 发表于 05-11 09:22 5123次阅读
    详解<b class='flag-5'>Linux</b>系统文件<b class='flag-5'>页</b><b class='flag-5'>表</b>目录和<b class='flag-5'>Linux</b>系统<b class='flag-5'>页表</b>结构

    Linux内核之内存映射原理分析

    Linux 内核采用延迟分配物理内存的策略,在进程第一次访问虚拟的时候,产生缺页异常。如果是文件映射,那么分配物理,把文件指定区间的数据
    发表于 07-21 17:06 2332次阅读

    Linux内核地址映射模型与Linux内核高端内存详解

    的数据可能不在内存Linux内核地址映射模型 x86 CPU采用了段式地址映射模型。进程
    发表于 05-08 10:33 3432次阅读
    <b class='flag-5'>Linux</b><b class='flag-5'>内核</b>地址<b class='flag-5'>映射</b>模型与<b class='flag-5'>Linux</b><b class='flag-5'>内核</b>高端内存详解

    linux系统内核ioremap映射分析

    linux系统内核ioremap映射分析 几乎每一种外设都是通过读写设备上的寄存器来进行的,通常包括控制寄存器、状态寄存器和数据寄存器三大类,外设的寄存器通常被连续地编址。根据CPU
    发表于 08-05 09:49

    arm内核基础知识介绍

    arm内核基础知识介绍,有需要的朋友下来看看。
    发表于 01-08 14:44 12次下载

    linux Android基础知识总结

    linux Android基础知识总结
    发表于 10-24 09:00 6次下载
    <b class='flag-5'>linux</b> Android<b class='flag-5'>基础知识</b>总结

    Linux设备驱动程序基础知识的了解

    了解Linux设备驱动程序的基础知识,重点关注设备节点,内核框架,虚拟文件​​系统和内核模块。 提出了一个简单的内核模块实现。
    的头像 发表于 11-26 06:51 3074次阅读

    Linux驱动编程基础知识讲解

    由于Linux驱动编程的本质属于Linux内核编程,因此我们非常有必要熟悉Linux内核以及Linux
    的头像 发表于 03-01 08:27 3795次阅读

    Linux内核反向映射基础知识详解

    和工作深入理解内存管理,进程调度,文件系统,设备驱动等内核子系统。 为了系统的安全性,Linux内核将各个用户进程运行在各自独立的虚拟地址空间,用户进程之间通过虚拟地址空间相互隔离,
    的头像 发表于 11-26 14:42 2057次阅读

    ARM64 Linux内核的块映射

    内核文档Documentation/arm64/memory.rst描述了ARM64 Linux内核空间的内存映射情况,应该是此方面最权威文档。 以典型的4K
    的头像 发表于 01-04 13:37 2553次阅读
    ARM64 <b class='flag-5'>Linux</b><b class='flag-5'>内核</b><b class='flag-5'>页</b><b class='flag-5'>表</b>的块<b class='flag-5'>映射</b>

    解析Linux内核管理那些鲜为人知的秘密

    虚拟内存管理,而管理是在虚拟内存管理尤为重要,本文主要以回答几个管理关键性问题来解析
    的头像 发表于 06-11 16:32 1588次阅读

    Linux用户态开发驱动教程及基础知识

    Linux用户态开发驱动教程及基础知识
    发表于 07-14 10:06 7次下载

    Linux内核抢占相关的基础知识

    今天要分享的是抢占相关的基础知识。本文以内核抢占为引子,概述一下 Linux 抢占的图景。我尽量避开细节问题和源码分析。 什么是内核抢占? 别急,咱们慢慢来。 先理解抢占 (preem
    的头像 发表于 11-09 16:48 1996次阅读

    Linux内核pwn基础知识

    Linux内核pwn之基础rop提权 1. linux kernel pwn kernel 也是一个程序,用来管理软件发出的数据 I/O 要求,将这些要求转义为指令,交给 CPU 和计算机
    的头像 发表于 02-01 17:53 1671次阅读
    <b class='flag-5'>Linux</b><b class='flag-5'>内核</b>pwn<b class='flag-5'>基础知识</b>

    MMU多级映射过程

    空间,也有相应的负责虚拟地址到物理地址之间的转换。MMU查询的过程,用户进程的一级的基址存放在TTBR0。操作系统的
    的头像 发表于 11-26 16:28 895次阅读
    MMU多级<b class='flag-5'>页</b><b class='flag-5'>表</b><b class='flag-5'>映射</b>过程