前言
看这篇文章,你必备的一些前置知识有如下
1、ATF启动流程 2、PSCI电源管理的概念 3、设备树
如果没有,想要我发布什么方面的内容?记得点赞、分享、评论三连。哈哈哈
昨天有个朋友在问多核启动,于是今天就整理一篇多核启动的文章,内容大多数参考与网上前辈们的优秀博客,感激。
1、SMP是什么?
SMP 英文为Symmetric Multi-Processing ,是对称多处理结构的简称,是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构,一个服务器系统可以同时运行多个处理器,并共享内存和其他的主机资源。
CMP 英文为Chip multiprocessors,指的是单芯片多处理器,也指多核心。其思想是将大规模并行处理器中的SMP集成到同一芯片内,各个处理器并行执行不同的进程。
(1)CPU数:独立的中央处理单元,体现在主板上就是有多少个CPU槽位
(2)CPU核心数(CPU cores):在每一个CPU上,都可能有多核(core),每个核中都有独立的ALU,FPU,Cache等组件,可以理解为CPU的物理核数。(我们常说4核8线程中的核),指物理上存在的物体。
(3)CPU线程数(processor逻辑核):一种逻辑上的概念,并非真实存在的物体,只是为了更好地描述CPU的运作能力。简单地说,就是模拟出的CPU核心数。
不过在这里我们这里指的是多个单核CPU组合到一起,每个核都有自己的一套寄存器。
一个系统存在多个CPU,成本会更高和管理也更困难。多核算是轻量级的SMP,物理上多核CPU还是封装成一个CPU,但是在CPU内部具有多个CPU的核心部件,可以同时运行多个线程/进程。但是需要CPU核心之间要共享资源,比如缓存。
对程序员来说,它们之间的区别很小,大多数情况可以不做区分。我们在嵌入式开发中,大部分都是用的多核CPU。
这里我们就把这个SMP启动转换成多核CPU启动。
2、启动方式
程序为何可以在多个cpu上并发执行:他们有各自独立的一套寄存器,如:程序计数器pc,栈指针寄存器sp,通用寄存器等,可以独自 取指、译码、执行,当然内存和外设资源是共享的,多核环境下当访问临界区 资源一般 自旋锁来防止竞态发生。
soc启动的一般会从片内的rom, 也叫bootrom开始执行第一条指令,这个地址是系统默认的启动地址,会在bootrom中由芯片厂家固化一段启动代码来加载启动bootloader到片内的sram,启动完成后的bootloader除了做一些硬件初始化之外做的最重要的事情是初始化ddr,因为sram的空间比较小所以需要初始化拥有大内存 ddr,最后会从网络/usb下载 或从存储设备分区上加载内核到ddr某个地址,为内核传递参数之后,然后bootloader就完成了它的使命,跳转到内核,就进入了操作系统内核的世界。
bootloader将系统的控制权交给内核之后,他首先会进行处理器架构相关初始化部分,如设置异常向量表,初始化mmu(之后内核就从物理地址空间进入了虚拟地址空间的世界,一切是那么的虚无缥缈,又是那么的恰到好处)等等,然后会清bss段,设置sp之后跳转到C语言部分进行更加复杂通用的初始化,其中会进行内存方面的初始化,调度器初始化,文件系统等内核基础组件 初始化工作,随后会进行关键的从处理器的引导过程,然后是各种实质性的设备驱动的初始化,最后 创建系统的第一个用户进程init后进入用户空间执行用户进程宣誓内核初始化完成,可以进程正常的调度执行。
系统初始化阶段大多数都是主处理器做初始化工作,所有不用考虑处理器并发情况,一旦从处理器被bingup起来,调度器和各自的运行队列准备就绪,多个任务就会均衡到各个处理器,开始了并发的世界,一切是那么的神奇。
soc在启动阶段除了一些特殊情况外(如为了加快启动速度,在bl2阶段通过并行加载方式同时加载bl31、bl32和bl33镜像),一般都没有并行化需求。因此只需要一个cpu执行启动流程即可,这个cpu被称为primary cpu,而其它的cpu则统一被称为secondary cpu。为了防止secondary cpu在启动阶段的执行,它们在启动时必须要被设置为一个特定的状态。(有时候为了增加启动速度,必须对时间敏感的设备,就可能启动的时候整个从核并行跑一些任务)
当primary cpu完成操作系统初始化,调度系统开始工作后,就可以通过一定的机制启动secondary cpu。显然secondary cpu不再需要执行启动流程代码,而只需直接跳转到内核中执行即可。
主流程启动初始化一般来说都是主核在干的,当系统完成了初始化后就开始启动从核。 这就像在启动的大门,只有主核让你过了,其他的先在门外等着。当cpu0启动到kernel后,就会去门口,把它们的门禁卡给它们,卡上就写的它们的目的地班级是哪里。如果没有这个门禁卡的cpu,说明地址为0,就继续在原地等着。
故其启动的关键是如何将内核入口地址告知secondary cpu,以使其能跳转到正确的执行位置。
aarch64架构实现了两种不同的启动方式,spin-table和psci。
其中spin-table方式非常简单,但其只能被用于secondary cpu启动,功能比较单一。
随着aarch64架构电源管理需求的增加(如cpu热插拔、cpu idle等),arm设计了一套标准的电源管理接口协议psci。该协议可以支持所有cpu相关的电源管理接口,而且由于电源相关操作是系统的关键功能,为了防止其被攻击,该协议将底层相关的实现都放到了secure空间,从而可提高系统的安全性。
2.1 spin-table
spin-table启动流程的示意图如下:
在这里插入图片描述
芯片上电后primary cpu开始执行启动流程,而secondary cpu则将自身设置为WFE睡眠状态,并且为内核准备了一块内存,用于填写secondary cpu的入口地址。
uboot负责将这块内存的地址写入devicetree中,当内核初始化完成,需要启动secondary cpu时,就将其内核入口地址写到那块内存中,然后唤醒cpu。
secondary cpu被唤醒后,检查该内存的内容,确认内核已经向其写入了启动地址,就跳转到该地址执行启动流程。
2.1.1 secondary cpu初始化状态设置
uboot启动时,secondary cpu会通过以下流程进入wfe状态(arch/arm/cpu/armv8/start.S):
#ifdefined(CONFIG_ARMV8_SPIN_TABLE)&&!defined(CONFIG_SPL_BUILD) branch_if_masterx0,x1,master_cpu(1) bspin_table_secondary_jump(2) … master_cpu:(3) bl_main
(1)若当前cpu为primary cpu,则跳转到step 3,继续执行启动流程。其中cpu id是通过mpidr区分的,而启动流程中哪个cpu作为primary cpu可以任意指定。当指定完成后,此处就可以根据其身份确定相应的执行流程
(2)若当前cpu为slave cpu,则执行spin流程。它是由spin_table_secondary_jump函数实现的(arch/arm/cpu/armv8/start.S)。以下为其代码实现:
ENTRY(spin_table_secondary_jump) .globlspin_table_reserve_begin spin_table_reserve_begin: 0:wfe(1) ldrx0,spin_table_cpu_release_addr(2) cbzx0,0b(3) brx0(4) .globlspin_table_cpu_release_addr(5) .align3 spin_table_cpu_release_addr: .quad0 .globlspin_table_reserve_end spin_table_reserve_end: ENDPROC(spin_table_secondary_jump)
(1)secondary cpu当前没有事情要做,因此执行wfe指令进入睡眠模式,以降低功耗
(2)spin_table_cpu_release_addr将由uboot传递给内核,根据step 5的定义可知,其长度为8个字节,在64位系统中正好可以保存一个指针。而它的内容在启动时会被初始化为0,当内核初始化完成后,在启动secondary cpu之前,会在uboot中将其入口地址写到该位置,并唤醒它
(3)当secondary cpu从wfe状态唤醒后,会校验内核是否在spin_table_cpu_release_addr处填写了它的启动入口。若未填写,则其会继续进入wfe状态
(4)若内核填入了启动地址,则其直接跳转到该地址开始执行内核初始化流程
2.1.2 spin_table_cpu_release_addr的传递
由于在armv8架构下,uboot只能通过devicetree向内核传递参数信息,因此当其开启了CONFIG_ARMV8_SPIN_TABLE配置选项后,就需要在适当的时候将该值写入devicetree中。
我们知道uboot一般通过bootm命令启动操作系统(aarch64支持的booti命令,其底层实现与bootm相同),因此在bootm中会执行一系列启动前的准备工作,其中就包括将spin-table地写入devicetree的工作。以下其执行流程图:
在这里插入图片描述
spin_table_update_dt的代码实现如下:
intspin_table_update_dt(void*fdt) { … unsignedlongrsv_addr=(unsignedlong)&spin_table_reserve_begin; unsignedlongrsv_size=&spin_table_reserve_end- &spin_table_reserve_begin;(1) cpus_offset=fdt_path_offset(fdt,"/cpus");(2) if(cpus_offset< 0) return -ENODEV; for (offset = fdt_first_subnode(fdt, cpus_offset); offset >=0; offset=fdt_next_subnode(fdt,offset)){ prop=fdt_getprop(fdt,offset,"device_type",NULL); if(!prop||strcmp(prop,"cpu")) continue; prop=fdt_getprop(fdt,offset,"enable-method",NULL);(3) if(!prop||strcmp(prop,"spin-table")) return0; } for(offset=fdt_first_subnode(fdt,cpus_offset); offset>=0; offset=fdt_next_subnode(fdt,offset)){ prop=fdt_getprop(fdt,offset,"device_type",NULL); if(!prop||strcmp(prop,"cpu")) continue; ret=fdt_setprop_u64(fdt,offset,"cpu-release-addr", (unsignedlong)&spin_table_cpu_release_addr);(4) if(ret) return-ENOSPC; } ret=fdt_add_mem_rsv(fdt,rsv_addr,rsv_size);(5) … }
(1)获取其起始地址和长度
(2)从devicetree中获取cpus节点
(3)遍历该节点的所有cpu子节点,并校验其enable-method是否为spin-table。若不是所有cpu的都该类型,则不设置
(4)若所有cpu的enable-method都为spin-table,则将该参数设置到cpu-release-addr属性中
(5)由于这段地址有特殊用途,内核的内存管理系统不能将其分配给其它模块。因此,需要将其添加到保留内存中
2.1.3 启动secondary cpu
内核在启动secondary cpu之前当然需要为其准备好执行环境,因为内核中cpu最终都将由调度器管理,故此时调度子系统应该要初始化完成。
同时cpu启动完成转交给调度器之前,并没有实际的业务进程,而我们知道内核中cpu在空闲时会执行idle进程。因此,在其启动之前需要为每个cpu初始化一个idle进程。
另外,由于将一个cpu通过热插拔方式移除后,再次启动该cpu的流程,与secondary cpu的启动流程是相同的,因此内核复用了cpu hotplug框架用于启动secondary cpu。
而内核为每个cpu都分配了一个独立的hotplug线程,用于执行本cpu相关的热插拔流程。为此,内核通过以下流程执行secondary cpu启动操作:
在这里插入图片描述
idle进程初始化
以下代码为每个非boot cpu分配一个idle进程
void__initidle_threads_init(void) { … boot_cpu=smp_processor_id(); for_each_possible_cpu(cpu){(1) if(cpu!=boot_cpu) idle_init(cpu);(2) } }
(1)遍历系统中所有的possible cpu
(2)若该cpu为secondary cpu,则为其初始化一个idle进程
hotplug线程初始化
以下代码为每个cpu初始化一个hotplug线程
void__initcpuhp_threads_init(void) { BUG_ON(smpboot_register_percpu_thread(&cpuhp_threads)); kthread_unpark(this_cpu_read(cpuhp_state.thread)); }
其中线程的描述结构体定义如下:
staticstructsmp_hotplug_threadcpuhp_threads={ .store=&cpuhp_state.thread,(1) .create=&cpuhp_create,(2) .thread_should_run=cpuhp_should_run,(3) .thread_fn=cpuhp_thread_fun,(4) .thread_comm="cpuhp/%u",(5) .selfparking=true,(6) }
(1)用于保存cpu上的task struct指针
(2)线程创建时调用的回调
(3)该回调用于获取线程是否需要退出标志
(4)cpu hotplug主函数,执行实际的hotplug操作
(5)该线程的线程名
(6)用于设置线程创建完成后,是否将其设置为park状态
hotplug回调线程唤醒
内核使用以下流程唤醒特定cpu的hotplug线程,用于执行实际的cpu启动流程:
在这里插入图片描述
由于cpu启动时需要与一系列模块交互以执行相应的准备工作,为此内核为其定义了一组hotplug状态,用于表示cpu在启动或关闭时分别需要执行的流程。以下为个阶段状态定义示例(由于该数组较长,故只截了一小段):
staticstructcpuhp_stepcpuhp_hp_states[]={ [CPUHP_OFFLINE]={ .name="offline", .startup.single=NULL, .teardown.single=NULL, }, … [CPUHP_BRINGUP_CPU]={ .name="cpu:bringup", .startup.single=bringup_cpu, .teardown.single=finish_cpu, .cant_stop=true, } … [CPUHP_ONLINE]={ .name="online", .startup.single=NULL, .teardown.single=NULL, }, }
以上每个阶段都可包含startup.single和teardown.single两个回调函数,分别表示cpu启动和关闭时需要执行的流程。其中在cpu启动时,将会从CPUHP_OFFLINE状态开始,依次执行各个阶段的startup.single回调函数。其中CPUHP_BRINGUP_CPU及之前的阶段都在secondary cpu启动之前执行。
而CPUHP_BRINGUP_CPU阶段的回调函数bringup_cpu,会实际触发secondary cpu的启动流程。它将通过cpu_ops接口调用spin-table函数,启动secondary cpu,并等待其启动完成。
当secondary cpu启动完成后,将唤醒hotplug线程,其将继续执行CPUHP_BRINGUP_CPU之后阶段相关的回调函数。
cpu操作函数
cpu_ops函数由bringup_cpu调用,以触发secondary cpu启动。它是根据设备树中解析出的enable-method属性确定的。
int__initinit_cpu_ops(intcpu) { constchar*enable_method=cpu_read_enable_method(cpu);(1) … cpu_ops[cpu]=cpu_get_ops(enable_method);(2) … }
(1)获取该cpu enable-method属性的值
(2)根据其enable-method获取其对应的cpu_ops回调
其中spin-table启动方式的回调如下:
conststructcpu_operationssmp_spin_table_ops={ .name="spin-table", .cpu_init=smp_spin_table_cpu_init, .cpu_prepare=smp_spin_table_cpu_prepare, .cpu_boot=smp_spin_table_cpu_boot, }
触发secondary cpu启动
以上流程都准备完成后,触发secondary cpu启动就非常简单了。只需调用其cpu_ops回调函数,向其对应的spin_table_cpu_release_addr位置写入secondary cpu入口地址即可。以下为其调用流程:
在这里插入图片描述
其中smp_spin_table_cpu_boot的实现如下:
staticintsmp_spin_table_cpu_boot(unsignedintcpu) { write_pen_release(cpu_logical_map(cpu));(1) sev();(2) return0; }
(1)向给定地址写入内核entry
(2)通过sev指令唤醒secondary cpu启动
此后,该线程将等待cpu启动完成,并在完成后将其设置为online状态
secondary cpu执行流程
aarch64架构secondary cpu的内核入口函数为secondary_entry(arch/arm64/kernel/head.S),以下为其执行主流程:
在这里插入图片描述
由于其底层相关初始化流程与primary cpu类似,因此此处不再介绍。我们这里主要看一下它是如何通过secondary_start_kernel启动idle线程的:
asmlinkagenotracevoidsecondary_start_kernel(void) { structmm_struct*mm=&init_mm; … current->active_mm=mm;(1) cpu_uninstall_idmap();(2) … ops=get_cpu_ops(cpu); if(ops->cpu_postboot) ops->cpu_postboot();(3) … set_cpu_online(cpu,true);(4) complete(&cpu_running);(5) … cpu_startup_entry(CPUHP_AP_ONLINE_IDLE);(6) }
(1)由于内核线程并没有用于地址空间,因此其active_mm通常指向上一个用户进程的地址空间。而cpu初始化时,由于之前并没有运行过用户进程,因此将其初始化为init_mm
(2)idmap地址映射仅仅是用于mmu使能时地址空间的平滑切换,在mmu使能完成后已经没有作用。更进一步,由于idmap页表所使用的ttbr0_elx页表基地址寄存器,正常情况下是用于用户空间页表的,在调度器接管该cpu之前也必须要将其归还给用户空间
(3)执行cpu_postboot回调
(4)由secondary cpu已经启动成功,故将其设置为online状态
(5)唤醒cpu hotplug线程
(6)让cpu执行idle线程,其代码实现如下:
voidcpu_startup_entry(enumcpuhp_statestate) { arch_cpu_idle_prepare(); cpuhp_online_idle(state); while(1) do_idle(); }
至此,cpu已经启动完成,并开始执行idle线程了。最后当然是要通知调度器,将该cpu的管理权限移交给调度器了。它是通过cpu hotplug的以下回调实现的:
staticstructcpuhp_stepcpuhp_hp_states[]={ … [CPUHP_AP_SCHED_STARTING]={ .name="sched:starting", .startup.single=sched_cpu_starting, .teardown.single=sched_cpu_dying, } … }
以下为该函数的实现:
intsched_cpu_starting(unsignedintcpu) { … sched_rq_cpu_starting(cpu);(1) sched_tick_start(cpu);(2) … }
(1)用于初始化负载均衡相关参数,此后该cpu就可以在其后的负载均衡流程中拉取进程
(2)tick时钟是内核调度器的脉搏,启动了该时钟之后,cpu就会在时钟中断中执行调度操作,从而让cpu参与到系统的调度流程中
到这里我们就知道了spin-table这个流程。不得不说前辈对这个逻辑理解很清楚,这个内容的参考链接在文末,欢迎大家点击原文链接点赞。
小结
整个图来看看
在这里插入图片描述
最后这里补充一下一个使用自旋表作为启动方式的平台设备树cpu节点:
arch/arm64/boot/dts/xxx.dtsi: cpu@0{ device_type="cpu"; compatible="arm,armv8"; reg=<0x0 0x000>; enable-method="spin-table"; cpu-release-addr=<0x1 0x0000fff8>; };
spin-table方式的多核启动方式,顾名思义在于自旋,主处理器和从处理器上电都会启动,主处理器执行uboot畅通无阻,从处理器在spin_table_secondary_jump处wfe睡眠,主处理器通过修改设备树的cpu节点的cpu-release-addr属性为spin_table_cpu_release_addr,这是从处理器的释放地址所在的地方。
主处理器进入内核后,会通过smp_prepare_cpus函数调用spin-table 对应的cpu操作集的cpu_prepare方法从而在smp_spin_table_cpu_prepare函数中设置从处理器的释放地址为secondary_holding_pen这个内核函数,然后通过sev指令唤醒从处理器,从处理器继续从secondary_holding_pen开始执行(从处理器来到了内核的世界),发现secondary_holding_pen_release不是自己的处理编号,然后通过wfe继续睡眠。
当主处理器完成了大多数的内核组件的初始化之后,调用smp_init来来开始真正的启动从处理器,最终调用spin-table 对应的cpu操作集的cpu_boot方法从而在smp_spin_table_cpu_boot将需要启动的处理器的编号写入secondary_holding_pen_release中,然后再次sev指令唤醒从处理器,从处理器得以继续执行(设置自己异常向量表,初始化mmu等)。
最终在idle线程中执行wfi睡眠。其他从处理器也是同样的方式启动起来,同样最后进入各种idle进程执行wfi睡眠,主处理器继续往下进行内核初始化,直到启动init进程,后面多个处理器都被启动起来,都可以调度进程,多进程还会被均衡到多核。
下面介绍另外一种启动 PSCI。
2.2 psci
psci是arm提供的一套电源管理接口,当前一共包含0.1、0.2和1.0三个版本。它可被用于以下场景:(1)cpu的idle管理
(2)cpu hotplug以及secondary cpu启动
(3)系统shutdown和reset
首先,我们先来看下设备树cpu节点对psci的支持:
arch/arm64/boot/dts/xxx.dtsi: cpu0:cpu@0{ device_type="cpu"; compatible="arm,armv8"; reg=<0x0>; enable-method="psci"; }; psci{ compatible="arm,psci"; method="smc"; cpu_suspend=<0xC4000001>; cpu_off=<0x84000002>; cpu_on=<0xC4000003>; };
psci节点的详细说明可以参考内核文档:Documentation/devicetree/bindings/arm/psci.txt
从这个我们可以获得什么信息呢?
可以看到现在enable-method 属性已经是psci,说明使用的多核启动方式是psci,
下面还有psci节点,用于psci驱动使用,method用于说明调用psci功能使用什么指令,可选有两个smc和hvc。
其实smc, hvc和svc都是从低运行级别向高运行级别请求服务的指令,我们最常用的就是svc指令了,这是实现系统调用的指令。
高级别的运行级别会根据传递过来的参数来决定提供什么样的服务。
smc是用于陷入el3(安全),
hvc用于陷入el2(虚拟化, 虚拟化场景中一般通过hvc指令陷入el2来请求唤醒vcpu), svc用于陷入el1(系统)。
这里只讲解smc陷入el3启动多核的情况。
2.2.1 psci 基础概念知识
下面我们将按照电源管理拓扑结构(power domain)、电源状态(power state)以及armv8安全扩展几个方面介绍psci的一些基础知识
2.2.1.1power domain
我们前面已经介绍过cpu的拓扑结构,如aarch64架构下每块soc可能会包含多个cluster,而每个cluster又包含多个core,它们共同组成了层次化的拓扑结构。如以下为一块包含2个cluster,每个cluster包含四个core的soc:
在这里插入图片描述
由于其中每个core以及每个cluster的电源都可以独立地执行开关操作,因此若core0 – core3的电源都关闭了,则cluster 0的电源也可以被关闭以降低功耗。
若core0 – core3中的任一个core需要上电,则显然cluster 0需要先上电。为了更好地进行层次化电源管理,psci在电源管理流程中将以上这些组件都抽象为power domain。如以下为上例的power domain层次结构:
在这里插入图片描述
其中system level用于管理整个系统的电源,cluster level用于管理某个特定cluster的电源,而core level用于管理一个单独core的电源。
2.2.1.2power state
由于aarch64架构有多种不用的电源状态,不同电源状态的功耗和唤醒延迟不同。
如standby状态会关闭power domain的clock,但并不关闭电源。因此它虽然消除了门电路翻转引起的动态功耗,但依然存在漏电流等引起的静态功耗。故其功耗相对较大,但相应地唤醒延迟就比较低。
而对于power down状态,会断开对应power domain的电源,因此其不仅消除了动态功耗,还消除了静态功耗,相应地其唤醒延迟就比较高了。
psci一共为power domain定义了四种power state:
•(1)run:电源和时钟都打开,该domain正常工作
•(2)standby:关闭时钟,但电源处于打开状态。其寄存器状态得到保存,打开时钟后就可继续运行。功耗相对较大,但唤醒延迟较低。arm执行wfi或wfe指令会进入该状态。
•(3)retention:它将core的状态,包括调试设置都保存在低功耗结构中,并使其部分关闭。其状态在从低功耗变为运行时能自动恢复。从操作系统角度看,除了进入方法、延迟等有区别外,其它都与standby相同。它的功耗和唤醒延迟都介于standby和power down之间。
•(4)power down:关闭时钟和电源。power domain掉电后,所有状态都丢失,上电以后软件必须重新恢复其状态。它的功耗最低,但唤醒延迟也相应地最高。
(这里我很好奇怎么和linux的s3、s4对应的。当时测试s3的时候,对应的是suspend。这里的对于cpu的有off、on、suspend三种,我觉得这里应该就是对于的standby,因为有wfi或wfe这些指令。那s4就是CPU off了?可以看一下这个有点认识,突然想到psci里面的状态是对于的cpu为对象,但是linux的电源管理应该是对整个设备。)
可以看一下这个文章:s1s2s3S4S5的含义待机、休眠、睡眠的区别
显然,power state的睡眠程度从run到power down逐步加深。而高层级power domain的power state不应低于低层级power domain。
如以上例子中core 0 – core 2都为power down状态,而core 3为standby状态,则cluster 0不能为retention或power down状态。同样若cluster 0为standby状态,而cluster 1为run状态,则整个系统必须为run状态。
为了达到上述约束,不同power domain之间的power state具有以下关系:
在这里插入图片描述
这里解释了psci那个源码文档里电源树的概念。
psci实现了父leve与子level之间的电源关系协调,如cluster 0中最后一个core被设置为power down状态后,psci就会将该cluster也设置为power donw状态。若其某一个core被设置为run状态,则psci会先将其对应cluster的状态设置为run,然后再设置对应core的电源状态,这也是psci名字的由来(power state coordinate interface)
2.2.1.3armv8的安全扩展
为了增强arm架构的安全性,aarch64一共实现了secure和non-secure两种安全状态。通过一系列硬件扩展,在cpu执行状态、总线、内存、外设、中断、tlb、cache等方面都实现了两种状态之间的隔离。
在这种机制下,secure空间的程序可以访问所有secure和non-secure的资源,而non-secure空间的程序只能访问non-secure资源,却不能访问secure资源。从而可以将一些安全关键的资源放到secure空间,以增强其安全性。
为此aarch64实现了4个异常等级,其中EL3工作在secure空间,而EL0 – EL2既可以工作于secure空间,又可以工作于non-secure空间。不同异常等级及不同secure状态的模式下可运行不同类型软件。
如secure EL1和El0用于运行trust os内核及其用户态程序,non-secure EL1和El0用于运行普通操作系统内核(如linux)及其用户态程序,EL2用于运行虚拟机的hypervisor。而EL3运行secure monitor程序(通常为bl31),其功能为执行secure和non secure状态切换、消息转发以及提供类似psci等secure空间服务。以下为其示意图:
在这里插入图片描述
psci是工作于non secure EL1(linux内核)和EL3(bl31)之间的一组电源管理接口,其目的是让linux实现具体的电源管理策略,而由bl31管理底层硬件相关的操作。从而将cpu电源控制这种影响系统安全的控制权限放到安全等级更高的层级中,从而提升系统的整体安全性。
那么psci如何从EL1调用EL3的服务呢?其实它和系统调用是类似的,只是系统调用是用户态程序陷入操作系统内核,而psci是从操作系统内核陷入secure monitor。armv8提供了一条smc异常指令,内核只需要提供合适的参数后,触发该指令即可通过异常的方式进入secure monitor。(SMC调用,这个在ATF专栏有介绍)
2.2.2 psci软件架构
由于psci是由linux内核调用bl31中的安全服务,实现cpu电源管理功能的。因此其软件架构包含三个部分:(1)内核与bl31之间的调用接口规范
(2)内核中的架构
(3)bl31中的架构
2.2.3psci接口规范
psci规定了linux内核调用bl31中电源管理相关服务的接口规范,它包含实现以下功能所需的接口:(1)cpu idle管理
(2)向系统动态添加或从系统动态移除cpu,通常称为hotplug
(3)secondary cpu启动
(4)系统的shutdown和reset
psci接口规定了命令对应的function_id、接口的输入参数以及返回值。其中输入参数可通过x0 – x7寄存器传递,而返回值通过x0 – x4寄存器传递。
如secondary cpu启动或cpu hotplug时可调用cpu_on接口,为一个cpu执行上电操作。该接口的格式如下:(1)function_id:0xc400 0003
(2)输入参数:使用mpidr值表示的target cpu id
cpu启动入口的物理地址
context id,该值用于表示本次调用上下文相关的信息
(3)返回值:可以为success、invalid_parameter、invalid_address、already_on、on_pending或internal_failure
有了以下这些接口的详细定义,内核和bl31就只需按照该接口的规定,独立开发psci相关功能。从而避免了它们之间的耦合,简化了开发复杂度。
2.2.4内核中的psci架构
内核psci软件架构包含psci驱动和每个cpu的cpu_ops回调函数实现两部分。
其中psci驱动实现了驱动初始化和psci相关接口实现功能,而cpu_ops回调函数最终也会调用psci驱动的接口。
2.2.4.1psci驱动
首先我们看一下devicetree中的配置:
psci{ compatible="arm,psci-0.2";(1) method="smc";(2) }
(1)用于指定psci版本
(2)根据该psci由bl31处理还是hypervisor处理,可以指定其对应的陷入方式。若由bl31处理为smc,若由hypervisor处理则为hvc
驱动流程主要是与bl31通信,以确认其是否支持给定的psci版本,以及相关psci操作函数的实现,其流程如下:
在这里插入图片描述
其主要工作即为psci设置相关的回调函数,该函数定义如下:
staticvoid__initpsci_0_2_set_functions(void) { … psci_ops=(structpsci_operations){ .get_version=psci_0_2_get_version, .cpu_suspend=psci_0_2_cpu_suspend, .cpu_off=psci_0_2_cpu_off, .cpu_on=psci_0_2_cpu_on, .migrate=psci_0_2_migrate, .affinity_info=psci_affinity_info, .migrate_info_type=psci_migrate_info_type, };(1) register_restart_handler(&psci_sys_reset_nb);(2) pm_power_off=psci_sys_poweroff;(3) }
(1)为psci_ops设置相应的回调函数
(2)为psci模块设置系统重启时的通知函数
(3)将系统的power_off函数指向相应的psci接口
2.2.4.2cpu_ops接口
驱动初始化完成后,cpu的cpu_ops就可以调用这些回调实现psci功能的调用。如下所示,当devicetree中cpu的enable-method设置为psci时,该cpu的cpu_ops将指向cpu_psci_ops。
cpu0:cpu@0{ ... enable-method="psci"; … }
其中cpu_psci_ops的定义如下:
conststructcpu_operationscpu_psci_ops={ .name="psci", .cpu_init=cpu_psci_cpu_init, .cpu_prepare=cpu_psci_cpu_prepare, .cpu_boot=cpu_psci_cpu_boot, #ifdefCONFIG_HOTPLUG_CPU .cpu_can_disable=cpu_psci_cpu_can_disable, .cpu_disable=cpu_psci_cpu_disable, .cpu_die=cpu_psci_cpu_die, .cpu_kill=cpu_psci_cpu_kill, #endif }
如启动cpu的接口为cpu_psci_cpu_boot,它会通过以下流程最终调用psci驱动中的psci_ops函数:
staticintcpu_psci_cpu_boot(unsignedintcpu) { phys_addr_tpa_secondary_entry=__pa_symbol(function_nocfi(secondary_entry)); interr=psci_ops.cpu_on(cpu_logical_map(cpu),pa_secondary_entry); if(err) pr_err("failedtobootCPU%d(%d) ",cpu,err); returnerr; }
2.2.5bl31中的psci架构
bl31为内核提供了一系列运行时服务,psci作为其标准运行时服务的一部分,通过宏DECLARE_RT_SVC注册到系统中。其相应的定义如下:
DECLARE_RT_SVC( std_svc, OEN_STD_START, OEN_STD_END, SMC_TYPE_FAST, std_svc_setup, std_svc_smc_handler )
其中std_svc_setup会在bl31启动流程中被调用,以用于初始化该服务相关的配置。而std_svc_smc_handler为其smc异常处理函数,当内核通过psci接口调用相关服务时,最终将由该函数执行实际的处理流程。
在这里插入图片描述
上图为psci初始化相关的流程,它主要包含内容:(1)前面我们已经介绍过power domain相关的背景,即psci需要协调不同层级的power domain状态,因此其必须要了解系统的power domain配置情况。以上流程中红色虚线框的部分主要就是用于初始化系统的power domain拓扑及其状态
(2)由于psci在执行电源相关接口时,最终需要操作实际的硬件。而它们是与架构相关的,因此其操作函数最终需要注册到平台相关的回调中。plat_setup_psci_ops即用于注册特定平台的psci_ops回调,其格式如下:
typedefstructplat_psci_ops{ void(*cpu_standby)(plat_local_state_tcpu_state); int(*pwr_domain_on)(u_register_tmpidr); void(*pwr_domain_off)(constpsci_power_state_t*target_state); void(*pwr_domain_suspend_pwrdown_early)( constpsci_power_state_t*target_state); void(*pwr_domain_suspend)(constpsci_power_state_t*target_state); void(*pwr_domain_on_finish)(constpsci_power_state_t*target_state); void(*pwr_domain_on_finish_late)( constpsci_power_state_t*target_state); void(*pwr_domain_suspend_finish)( constpsci_power_state_t*target_state); void__dead2(*pwr_domain_pwr_down_wfi)( constpsci_power_state_t*target_state); void__dead2(*system_off)(void); void__dead2(*system_reset)(void); int(*validate_power_state)(unsignedintpower_state, psci_power_state_t*req_state); int(*validate_ns_entrypoint)(uintptr_tns_entrypoint); void(*get_sys_suspend_power_state)( psci_power_state_t*req_state); int(*get_pwr_lvl_state_idx)(plat_local_state_tpwr_domain_state, intpwrlvl); int(*translate_power_state_by_mpidr)(u_register_tmpidr, unsignedintpower_state, psci_power_state_t*output_state); int(*get_node_hw_state)(u_register_tmpidr,unsignedintpower_level); int(*mem_protect_chk)(uintptr_tbase,u_register_tlength); int(*read_mem_protect)(int*val); int(*write_mem_protect)(intval); int(*system_reset2)(intis_vendor, intreset_type,u_register_tcookie); }
最后我们再看一下psci操作相应的异常处理流程:
在这里插入图片描述
即其会根据function id的值,分别执行相应的电源管理服务,如启动cpu时会调用psci_cpu_on函数,重启系统时会调用psci_system_rest函数等。
2.2.6 secondary cpu启动
由于psci方式启动secondary cpu的流程,除了其所执行的cpu_ops不同之外,其它流程与spin-table方式是相同的,因此我们这里只给出执行流程图,详细分析可以参考上篇博文。其中以下流程执行secondary cpu启动相关的一些初始化工作:
在这里插入图片描述
在初始化完成且hotplug线程创建完成后,就可通过以下流程唤醒cpu hotplug线程:
在这里插入图片描述
此后hotplug线程将调用psci回调函数,并最终触发smc异常进入bl31:
在这里插入图片描述
bl31接收到该异常后执行std_svc_smc_handler处理函数,并最终调用平台相关的电源管理接口,完成cpu的上电工作,以下为其执行流程:
在这里插入图片描述
平台相关回调函数pwr_domain_on将为secondary cpu设置入口函数,然后为其上电使该cpu跳转到内核入口secondary_entry处开始执行。以下为其内核启动流程:
在这里插入图片描述
到这里其实就结束了,不得不说这个前辈的文章是真的写的逻辑清晰,收获颇多。
小结
最后结合代码再走一遍
1、std_svc_setup(主要关注设置psci操作集)--有服务
std_svc_setup//services/std_svc/std_svc_setup.c ->psci_setup//lib/psci/psci_setup.c ->plat_setup_psci_ops//设置平台的psci操作调用平台的plat_setup_psci_ops函数去设置psci操作eg:qemu平台 ->*psci_ops=&plat_qemu_psci_pm_ops; 208staticconstplat_psci_ops_tplat_qemu_psci_pm_ops={ 209.cpu_standby=qemu_cpu_standby, 210.pwr_domain_on=qemu_pwr_domain_on, 211.pwr_domain_off=qemu_pwr_domain_off, 212.pwr_domain_suspend=qemu_pwr_domain_suspend, 213.pwr_domain_on_finish=qemu_pwr_domain_on_finish, 214.pwr_domain_suspend_finish=qemu_pwr_domain_suspend_finish, 215.system_off=qemu_system_off, 216.system_reset=qemu_system_reset, 217.validate_power_state=qemu_validate_power_state, 218.validate_ns_entrypoint=qemu_validate_ns_entrypoint 219};
在遍历每一个注册的运行时服务的时候,会导致std_svc_setup调用,其中会做psci操作集的设置,操作集中我们可以看到对核电源的管理的接口如:核上电,下电,挂起等,我们主要关注上电 .pwr_domain_on = qemu_pwr_domain_on,这个接口当我们主处理器boot从处理器的时候会用到。
2、运行时服务触发和处理--来请求
smc指令触发进入el3异常向量表:
runtime_exceptions//el3的异常向量表 ->sync_exception_aarch64 ->handle_sync_exception ->smc_handler64 ->¦*PopulatetheparametersfortheSMChandler. ¦*Wealreadyhavex0-x4inplace.x5willpointtoacookie(notused ¦*now).x6willpointtothecontextstructure(SP_EL3)andx7will ¦*containflagsweneedtopasstothehandlerHencesavex5-x7. ¦* ¦*Note:x4onlyneedstobepreservedforAArch32callersbutwedoit ¦*forAArch64callersaswellforconvenience ¦*/ stpx4,x5,[sp,#CTX_GPREGS_OFFSET+CTX_GPREG_X4]//保存x4-x7到栈 stpx6,x7,[sp,#CTX_GPREGS_OFFSET+CTX_GPREG_X6] /*Saverestofthegpregsandsp_el0*/ save_x18_to_x29_sp_el0 movx5,xzr//x5清零 movx6,sp//sp保存在x6 /*Gettheuniqueowningentitynumber*///获得唯一的入口编号 ubfxx16,x0,#FUNCID_OEN_SHIFT,#FUNCID_OEN_WIDTH ubfxx15,x0,#FUNCID_TYPE_SHIFT,#FUNCID_TYPE_WIDTH orrx16,x16,x15,lsl#FUNCID_OEN_WIDTH adrx11,(__RT_SVC_DESCS_START__+RT_SVC_DESC_HANDLE) /*Loaddescriptorindexfromarrayofindices*/ adrx14,rt_svc_descs_indices//获得服务描述标识数组 ldrbw15,[x14,x16]//根据唯一的入口编号找到处理函数的地址 /* ¦*RestorethesavedCruntimestackvaluewhichwillbecomethenew ¦*SP_EL0i.e.EL3runtimestack.Itwassavedinthe'cpu_context' ¦*structurepriortothelastERETfromEL3. ¦*/ ldrx12,[x6,#CTX_EL3STATE_OFFSET+CTX_RUNTIME_SP] /* ¦*Anyindexgreaterthan127isinvalid.Checkbit7for ¦*avalidindex ¦*/ tbnzw15,7,smc_unknown /*SwitchtoSP_EL0*/ msrspsel,#0 /* ¦*Getthedescriptorusingtheindex ¦*x11=(base+off),x15=index ¦* ¦*handler=(base+off)+(index<< log2(size)) ¦*/ lsl w10, w15, #RT_SVC_SIZE_LOG2 ldr x15, [x11, w10, uxtw] /* ¦* Save the SPSR_EL3, ELR_EL3, & SCR_EL3 in case there is a world ¦* switch during SMC handling. ¦* TODO: Revisit if all system registers can be saved later. ¦*/ mrs x16, spsr_el3 //spsr_el3保存在x16 mrs x17, elr_el3 //elr_el3保存在x17 mrs x18, scr_el3 //scr_el3保存在x18 stp x16, x17, [x6, #CTX_EL3STATE_OFFSET + CTX_SPSR_EL3] / x16, x17/保存在栈 str x18, [x6, #CTX_EL3STATE_OFFSET + CTX_SCR_EL3] //x18保存到栈 /* Copy SCR_EL3.NS bit to the flag to indicate caller's security */ bfi x7, x18, #0, #1 mov sp, x12 /* ¦* Call the Secure Monitor Call handler and then drop directly into ¦* el3_exit() which will program any remaining architectural state ¦* prior to issuing the ERET to the desired lower EL. ¦*/ #if DEBUG cbz x15, rt_svc_fw_critical_error #endif blr x15 //跳转到处理函数 b el3_exit //从el3退出 会eret 回到el1 (后面会讲到)
3、找到对应handler--请求匹配处理函数
上面其实主要的是找到服务例程,然后跳转执行 下面是跳转的处理函数:
std_svc_smc_handler//services/std_svc/std_svc_setup.c ->ret=psci_smc_handler(smc_fid,x1,x2,x3,x4, ¦cookie,handle,flags) ... 480}else{ 481/*64-bitPSCIfunction*/ 482 483switch(smc_fid){ 484casePSCI_CPU_SUSPEND_AARCH64: 485ret=(u_register_t) 486psci_cpu_suspend((unsignedint)x1,x2,x3); 487break; 488 489casePSCI_CPU_ON_AARCH64: 490ret=(u_register_t)psci_cpu_on(x1,x2,x3); 491break; 492 ... }
4、处理函数干活
处理函数根据funid来决定服务,可以看到PSCI_CPU_ON_AARCH64为0xc4000003,这正是设备树中填写的cpu_on属性的id,会委托psci_cpu_on来执行核上电任务。下面分析是重点:!!!
->psci_cpu_on()//lib/psci/psci_main.c ->psci_validate_entry_point()//验证入口地址有效性并保存入口点到一个结构ep中 ->psci_cpu_on_start(target_cpu,&ep)//ep入口地址 ->psci_plat_pm_ops->pwr_domain_on(target_cpu) ->qemu_pwr_domain_on//实现核上电(平台实现) /*Storethere-entryinformationforthenon-secureworld.*/ ->cm_init_context_by_index()//重点:会通过cpu的编号找到cpu上下文(cpu_context_t),存在cpu寄存器的值,异常返回的时候写写到对应的寄存器中,然后eret,旧返回到了el1!!! ->cm_setup_context()//设置cpu上下文 ->write_ctx_reg(state,CTX_SCR_EL3,scr_el3);//lib/el3_runtime/aarch64/context_mgmt.c write_ctx_reg(state, CTX_ELR_EL3, ep->pc);//注:异常返回时执行此地址于是完成了cpu的启动!!! write_ctx_reg(state,CTX_SPSR_EL3,ep->spsr);
psci_cpu_on主要完成开核的工作,然后会设置一些异常返回后寄存器的值(eg:从el1 -> el3 -> el1),重点关注 ep->pc写到cpu_context结构的CTX_ELR_EL3偏移处(从处理器启动后会从这个地址取指执行)。
实际上,所有的从处理器启动后都会从bl31_warm_entrypoint开始执行,在plat_setup_psci_ops中会设置(每个平台都有自己的启动地址寄存器,通过写这个寄存器来获得上电后执行的指令地址)。
大致说一下:主处理器通过smc进入el3请求开核服务,atf中会响应这种请求,通过平台的开核操作来启动从处理器并且设置从处理的一些寄存器eg:scr_el3、spsr_el3、elr_el3,然后主处理器,恢复现场,eret再次回到el1,
而处理器开核之后会从bl31_warm_entrypoint开始执行,最后通过el3_exit返回到el1的elr_el3设置的地址。
分析到这atf的分析到此为止,atf中主要是响应内核的snc的请求,然后做开核处理,也就是实际的开核动作,但是从处理器最后还是要回到内核中执行,下面分析内核的处理:注意流程如下:
5、开核返回-EL1 启动从处理器
init/main.c start_kernel ->boot_cpu_init//引导cpu初始化设置引导cpu的位掩码onlineactivepresentpossible都为true ->setup_arch//arch/arm64/kernel/setup.c ->if(acpi_disabled)//不支持acpi psci_dt_init();//drivers/firmware/psci.c(psci主要文件)psci初始化解析设备树寻找psci匹配的节点 else psci_acpi_init();//acpi中允许使用psci情况 ->rest_init ->kernel_init ->kernel_init_freeable ->smp_prepare_cpus//准备cpu对于每个可能的cpu1.cpu_ops[cpu]->cpu_prepare(cpu)2.set_cpu_present(cpu,true)cpu处于present状态 ->do_pre_smp_initcalls//多核启动之前的调用initcall回调 ->smp_init//smp初始化kernel/smp.c会启动其他从处理器
我们主要关注两个函数:psci_dt_init和smp_init psci_dt_init是解析设备树,设置操作函数,smp_init用于启动从处理器。
->psci_dt_init()//drivers/firmware/psci.c: ->init_fn() ->psci_0_1_init()//设备树中compatible="arm,psci"为例 ->get_set_conduit_method()//根据设备树method属性设置invoke_psci_fn=__invoke_psci_fn_smc;(method="smc") ->invoke_psci_fn=__invoke_psci_fn_smc ->if(!of_property_read_u32(np,"cpu_on",&id)){ 651psci_function_id[PSCI_FN_CPU_ON]=id; 652psci_ops.cpu_on=psci_cpu_on;//设置psci操作的开核接口 653} ->psci_cpu_on() ->invoke_psci_fn() ->__invoke_psci_fn_smc() ->arm_smccc_smc(function_id,arg0,arg1,arg2,0,0,0,0,&res)//这个时候x0=function_idx1=arg0,x2=arg1,x3arg2,... ->__arm_smccc_smc() ->SMCCCsmc//arch/arm64/kernel/smccc-call.S ->20.macroSMCCCinstr 21.cfi_startproc 22instr#0//即是smc#0陷入到el3 23ldrx4,[sp] 24stpx0,x1,[x4,#ARM_SMCCC_RES_X0_OFFS] 25stpx2,x3,[x4,#ARM_SMCCC_RES_X2_OFFS] 26ldrx4,[sp,#8] 27cbzx4,1f/*noquirkstructure*/ 28ldrx9,[x4,#ARM_SMCCC_QUIRK_ID_OFFS] 29cmpx9,#ARM_SMCCC_QUIRK_QCOM_A6 30b.ne1f 31strx6,[x4,ARM_SMCCC_QUIRK_STATE_OFFS] 321:ret 33.cfi_endproc 34.endm
最终通过22行陷入了el3中。(这是因为安全所以还需要到ATF中启动)smp_init函数做从处理器启动:
start_kernel ->arch_call_rest_init ->rest_init ->kernel_init, ->kernel_init_freeable ->smp_prepare_cpus//arch/arm64/kernel/smp.c ->smp_init//kernel/smp.c(这是从处理器启动的函数) ->cpu_up ->do_cpu_up ->_cpu_up ->cpuhp_up_callbacks ->cpuhp_invoke_callback ->cpuhp_hp_states[CPUHP_BRINGUP_CPU] ->bringup_cpu ->__cpu_up//arch/arm64/kernel/smp.c ->boot_secondary ->cpu_ops[cpu]->cpu_boot(cpu) ->cpu_psci_ops.cpu_boot ->cpu_psci_cpu_boot//arch/arm64/kernel/psci.c 46staticintcpu_psci_cpu_boot(unsignedintcpu) 47{ 48interr=psci_ops.cpu_on(cpu_logical_map(cpu),__pa_symbol(secondary_entry)); 49if(err) 50pr_err("failedtobootCPU%d(%d) ",cpu,err); 51 52returnerr; 53}
启动从处理的时候最终调用到psci的cpu操作集的cpu_psci_cpu_boot函数,会调用上面的psci_cpu_on,最终调用smc,传递第一个参数为cpu的id标识启动哪个cpu,第二个参数为从处理器启动后进入内核执行的地址secondary_entry(这是个物理地址)。
所以综上,最后smc调用时传递的参数为arm_smccc_smc(0xC4000003, cpuid, secondary_entry, arg2, 0, 0, 0, 0, &res)。这样陷入el3之后,就可以启动对应的从处理器,最终从处理器回到内核(el3->el1),执行secondary_entry处指令,从处理器启动完成。
可以发现psci的方式启动从处理器的方式相当复杂,这里面涉及到了el1到安全的el3的跳转,而且涉及到大量的函数回调,很容易绕晕。
(其实为了安全,所以启动从核开核这个操作必须在EL3,开了以后,就可以会EL1,因为已经在EL3给你了准确安全的启动位置了。)
在这里插入图片描述
6、从处理器启动EL1做了什么?
其实这里就和spin-table比较相似了
无论是spin-table还是psci,从处理器启动进入内核之后都会执行secondary_startup:
719secondary_startup: 720/* 721¦*CommonentrypointforsecondaryCPUs. 722¦*/ 723bl__cpu_secondary_check52bitva 724bl__cpu_setup//initialiseprocessor 725adrpx1,swapper_pg_dir//设置内核主页表 726bl__enable_mmu//使能mmu 727ldrx8,=__secondary_switched 728brx8 729ENDPROC(secondary_startup) || / 731__secondary_switched: --732adr_lx5,vectors//设置从处理器的异常向量表 --733msrvbar_el1,x5 --734isb//指令同步屏障保证屏障前面的指令执行完 735 --736adr_lx0,secondary_data//获得主处理器传递过来的从处理器数据 --737ldrx1,[x0,#CPU_BOOT_STACK]//getsecondary_data.stack获得栈地址 738movsp,x1//设置到从处理器的sp --739ldrx2,[x0,#CPU_BOOT_TASK]//获得从处理器的tskidle进程的tsk结构, --740msrsp_el0,x2//保存在sp_el0arm64使用sp_el0保存当前进程的tsk结构 741movx29,#0//fp清0 742movx30,#0//lr清0 --743bsecondary_start_kernel//跳转到c程序继续执行从处理器初始化 744ENDPROC(__secondary_switched)
__cpu_up中设置了secondary_data结构中的一些成员:
arch/arm64/kernel/smp.c: 112int__cpu_up(unsignedintcpu,structtask_struct*idle) 113{ 114intret; 115longstatus; 116 117/* 118¦*Weneedtotellthesecondarycorewheretofinditsstackandthe 119¦*pagetables. 120¦*/ 121secondary_data.task=idle;//执行的进程描述符 122secondary_data.stack=task_stack_page(idle)+THREAD_SIZE;//栈地址THREAD_SIZE=16k 123update_cpu_boot_status(CPU_MMU_OFF); 124__flush_dcache_area(&secondary_data,sizeof(secondary_data)); 125 126/* 127¦*NowbringtheCPUintoourworld. 128¦*/ 129ret=boot_secondary(cpu,idle);
跳转到secondary_start_kernel这个C函数继续执行初始化:
183/* 184*ThisisthesecondaryCPUbootentry.We'reusingthisCPUs 185*idlethreadstack,butasetoftemporarypagetables. 186*/ 187asmlinkagenotracevoidsecondary_start_kernel(void) 188{ 189u64mpidr=read_cpuid_mpidr()&MPIDR_HWID_BITMASK; 190structmm_struct*mm=&init_mm; 191unsignedintcpu; 192 193cpu=task_cpu(current); 194set_my_cpu_offset(per_cpu_offset(cpu)); 195 196/* 197¦*Allkernelthreadssharethesamemmcontext;graba 198¦*referenceandswitchtoit. 199¦*/ 200mmgrab(mm);//init_mm的引用计数加1 201current->active_mm=mm;//设置idle借用的mm结构 202 203/* 204¦*TTBR0isonlyusedfortheidentitymappingatthisstage.Makeit 205¦*pointtozeropagetoavoidspeculativelyfetchingnewentries. 206¦*/ 207cpu_uninstall_idmap(); 208 209preempt_disable();//禁止内核抢占 210trace_hardirqs_off(); 211 212/* 213¦*Ifthesystemhasestablishedthecapabilities,makesure 214¦*thisCPUticksallofthose.Ifitdoesn't,theCPUwill 215¦*failtocomeonline. 216¦*/ 217check_local_cpu_capabilities(); 218 219if(cpu_ops[cpu]->cpu_postboot) 220cpu_ops[cpu]->cpu_postboot(); 221 222/* 223¦*LogtheCPUinfobeforeitismarkedonlineandmightgetread. 224¦*/ 225cpuinfo_store_cpu();//存储cpu信息 226 227/* 228¦*EnableGICandtimers. 229¦*/ 230notify_cpu_starting(cpu);//使能gic和timer 231 232store_cpu_topology(cpu);//保存cpu拓扑 233numa_add_cpu(cpu);///numa添加cpu 234 235/* 236¦*OK,nowit'ssafetoletthebootCPUcontinue.Waitfor 237¦*theCPUmigrationcodetonoticethattheCPUisonline 238¦*beforewecontinue. 239¦*/ 240pr_info("CPU%u:Bootedsecondaryprocessor0x%010lx[0x%08x] ", 241¦cpu,(unsignedlong)mpidr, 242¦read_cpuid_id());//打印内核log 243update_cpu_boot_status(CPU_BOOT_SUCCESS); 244set_cpu_online(cpu,true);//设置cpu状态为online 245complete(&cpu_running);//唤醒主处理器的完成等待函数,继续启动下一个从处理器 246 247local_daif_restore(DAIF_PROCCTX);//从处理器继续往下执行 248 249/* 250¦*OK,it'sofftotheidlethreadforus 251¦*/ 252cpu_startup_entry(CPUHP_AP_ONLINE_IDLE);//idle进程进入idle状态 253}
实际上,可以看的当从处理器启动到内核的时候,他们也需要设置异常向量表,设置mmu等,然后执行各自的idle进程(这些都是一些处理器强相关的初始化代码,一些通用的初始化都已经被主处理器初始化完),当cpu负载均衡的时候会放置一些进程到这些从处理器,然后进程就可以再这些从处理器上欢快的运行。
写到这里,关于arm64平台的多核启动已经介绍完成,可以发现里面还是会涉及到很多细节,源码散落在uboot,atf,kernel等源码目录中,多核启动并不是很神秘,都是需要告诉从处理器从那个地方开始取值执行,然后从处理器进入内核后需要自身做一些必要的初始化,就进入idle状态等待有任务来调度.
arm64平台使用psci更为广泛。
审核编辑:汤梓红
-
处理器
+关注
关注
68文章
19259浏览量
229651 -
芯片
+关注
关注
455文章
50714浏览量
423137 -
cpu
+关注
关注
68文章
10854浏览量
211576 -
SMP
+关注
关注
0文章
74浏览量
19654
原文标题:参考文章
文章出处:【微信号:处芯积律,微信公众号:处芯积律】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论