1. 前言
linux 内核有一套对系统负载的衡量算法,其底层使用的是指数衰退算法。
指数衰退算法从逻辑上是必须要依赖小数运算的,然而如你所知,内核中不允许使用浮点运算,硬浮点会引入 FPU,这将导致内核态-用户态之间切换时,需要保存更多的浮点寄存器而引入额外的开销,而软浮点依赖编译器实现的软浮点运算子,亦是额外的开销。
本文的出发点即在此,从工程角度分析 linux 内核负载计算所涉及到的技巧细节。这个分析是有普适价值的,可以借鉴到读者自己的内核态编程中,同时也适用于其他需要高效进行小数计算的场景。
2. 指数衰退
本章节介绍指数衰退算法,已经熟悉了的同学直接跳过。
2.1 是什么
假设有这样一组系统的负载采样时序:
我们希望衡量系统这段时间内的负载情况,要求将过去时间点上的负载采样也纳入对系统整体负载的影响考量。
一个最容易想到的算法就是取 Tn-5 - Tn 这段时间内的负载均值,作为系统负载的量化。
一定时间内负载采样点取均值,该思想的本质是过去一段时间内,任意采样点上的值,对当前系统负载的评估的影响有相同权重。
指数衰退的思想,本质上是不同时间点上的采样的对整体评估的影响权重不同,离当前时刻越近的采样点影响权重越高,反之越小,并且采样点间的影响权重呈指数级衰退。该思想也常用于对曲线的滤波平滑(指数平滑)。
2.2 数学推导
假设当前时刻采样对整体评估的影响权重是 w,写成公式(1):
L = w * Ln + (1 - w) * w * Ln-1 + (1 - w)2 * w * Ln-2 + (1 - w)3 * w * Ln-3 + (1 - w)4 * w * Ln-4 + (1 - w)5 * w * Ln-5 + ...
记上一次采样点上系统的整体负载为 L',得 式(2):
L' = w * Ln-1 + (1 - w) * w * Ln-2 + (1 - w)2 * w * Ln-3 + (1 - w)3 * w * Ln-4 + (1 - w)4 * w * Ln-5 + ...
式(2) 两边乘上 (1 - w),得 式(3):
(1 - w ) * L' = (1 - w) * w * Ln-1 + (1 - w)2 * w * Ln-2 + (1 - w)3 * w * Ln-3 + (1 - w)4 * w * Ln-4 + (1 - w)5 * w * Ln-5 + ...
式(3) 代入 式(1),得 式(4):
L = w * Ln + (1 - w ) * L'
2.3 工程化
对于式(4):
w:当前采样值对整体负载评估的贡献权重
Ln:当前采样值
L':上个采样点上,系统的整体负载评估值
L:当前采样点上,系统的整体负载评估值
写成代码:
/* curr 是当前采样值
* last_load 是上一时刻的系统负载
*/
double cal_load(double last_load, unsigned long long curr)
{
// 0.6 只是随意取的一个权重值
static double w = 0.6;
return w * curr + (1 - w) * last_load;
}
int main() {
int i;
double load;
unsigned long long samplings[] = {
[0] = 9,
[1] = 8,
[2] = 7,
[3] = 6,
[4] = 5,
[5] = 7,
[6] = 6,
[7] = 4,
[8] = 2,
[9] = 1,
};
for (i = 0; i < sizeof(samplings) / sizeof(unsigned long long); ++i) {
load = cal_load(load, samplings[i]);
printf("%lfn", load);
}
}
输出:
5.400000
6.960000
6.984000
6.393600
5.557440
6.422976
6.169190
4.867676
3.147070
1.858828
3. 浮点数
3.1 浮点数的存储
有关此话题更为严谨的讨论,参考 《IEEE Standard 754Floating Point Numbers》Steve Hollasch 一文。
对浮点数在计算机的存储很懂的同学直接跳过本节。
如你所知,单精度(float)、双精度(double)数在计算机中的存储,是遵循 IEEE 标准的。这个很好理解,因为计算只认识 0 和 1,无论什么数存到内存之后就是一坨 01 序列。如果不制定标准,计算机就不知道该怎么解释这串 01 序列。
本节以单精度的表示来讲解(双精度原理一样,只是阶码、尾数所占的比特位数与单精度不同)。
单精度在计算机中如此表示:
此单精度浮点数(下文简称“浮点数”)的值为 式(5):
V = (-1)S x (1.M) x 2(E - 127)
这里对 式(5) 稍微解释一下:
- 阶码理解为指数,尾数理解为底数。
- 为什么当尾数存储的是 M 时,实际的运算使用的尾数却是 1.M?
因为这里本质上是科学计数法,科学计数法要求底数的整数部分不能为 0:
1000 = 1 x 103 这是正确的表示法
1000 = 0.1 x 104 这是错误的表示法
在浮点数的存储中亦然,计算机使用二进制,故尾数的整数部分必然是 1,既然必然是 1,这个 1 也就没有必要存储了,如此尾数位中可以节省一个 bit 来表示更高精度的数据。
- 为什么当阶码存储的是 E 时,实际的运算使用的阶码却是 E - 127?
阶码是可能存在为负数的情况的:
0.001 = 1 x 10-3
浮点数亦不例外。试想:
- 如果 E 为 8 个 1(0xFF),也就是 255,那么此时算出来的实际阶码为 255 - 127 = 128
- 如果 E 为 8 个 0(0x00),也就是 0,那么此时算出来的实际阶码为 0 - 127 = -127
换句话说,我们在这里加上 127 这个偏置,效果就是用 127 来表示逻辑上的 0,那么:
- 逻辑上的 +128,表示为 127 + 128 = 255
- 逻辑上的 -127,表示为 127 - 127 = 0
通过使用 127 来表示逻辑 0 这个 trick,实现了用 8 位位宽表示逻辑上的 [-127, 128]。
3.2 进制转换
为了方便后面定点数的推导,本章节提一下十进制与二进制间的转换算法。
已经很懂的同学自行跳过。
- 十进制整数转二进制
算法:除 2 取余,逆序输出。
算法比较简单,这里直接用 python 代码描述(挫):
def dec_int2bin(n):
res = ""
while n:
res = str(n & 1) + res
n /= 2
print res
# 打印十进制数 12 的二进制表示
dec_int2bin(12)
# output
# 1100
- 十进制小数转二进制
这里注意十进制的小数转二进制,算法与十进制整数不同。
算法:将小数部分不断乘以2,每次取整数部分,直到最后乘积结果为 1。
用 python 描述(挫):
def dec_frac2bin(n):
res = "0."
nbits = 0
while n:
n *= 2
INT = int(n)
n = n - INT
if nbits % 4 == 0 and nbits:
res += " "
nbits += 1
res += str(INT)
print res
# 打印 0.3125 的二进制表示
dec_frac2bin(0.3125)
# output
# 0.0101
计算过程:
- 二进制小数转十进制
算法:各个位乘以 2 的负次方,最后将结果相加(本质上就是十进制小数转二进制的逆运算)。
如二进制的小数 0.0101,转成十进制小数:
0 x 2-1 + 1 x 2-2 + 0 x 2-3 + 1 x 2-4 = 0.3125
用 python 描述(挫):
def bin2dec(n, w):
res = 0
n = int(n * pow(10, w))
while n:
res += pow(2, -w) if n % 10 == 1 else 0
w -= 1
n /= 10
print res
# 打印二进制小数 0.0101 的十进制数值
bin2dec(0.0101, 4)
# output
# 0.3125
3.3 实践验证理论
根据上两节的知识,我们来验证一下实际的浮点表示是否符合预期:
void main(void) {
float f = 12.3125;
assert(sizeof(f) == sizeof(uint32_t));
printf("0x%xn", *(uint32_t *)&f);
}
上面的代码打印出 12.3125 在内存中存储的二进制 bit 序列,直接以图的形式展示输出结果:
- S:0,表示是正数
- E:0x82 - 127 = 3
- M:1.1000 101(b) = 1.5390625(d)
根据 式(5):
V = 1.5390625 * 23 = 12.3125
3.4 “浮”的本质
随着尾数、阶码的变化,小数点在最终数值中的位置是跟着变化的,换句话说,你根本不知道它小数点后是精确到第几位的。
3.5 精度的丧失
注意:本节的推导皆是通过工程手段进行的,没有严谨的数学论证,因为我不会。
浮点的“点”虽然是在“浮”的,但限于计算机的离散性,无法无限精度的“浮”
浮点数精度的丧失从两个角度来考虑,我们观察 3.2 节提到的两个算法:
- 十进制小数转二进制算法:此算法反复乘以 2,取整数部分的值为当前二进制的 bit,直到这个数最终变成 0。这里存在此算法无法在有限次数内收敛的问题,如果此算法拿到的 bit 序列,长度超过尾数位宽(超出了尾数能表示的范围),会导致精度丧失。
- 二进制小数转十进制算法:根据此算法,浮点所能表达的最小的颗粒度为 2-23(十进制的 0.00000011920928955078125),这个类似物理学中的普朗克常量,不可继续切分,若想表达比这个粒度还小的精度,float 无能为力。
根据“最小的颗粒度为 2-23”,我们推定精度比 0.0000001 还小的数,float 无法表示。
从另外一个角度来验证这个事情:
考虑 1.00001、1.000001、1.0000001 几个十进制小数,根据“二进制小数转十进制”的算法,我们得出几者的二进制表示:
1.000001(十进制):
1.0000 0000 0000 0000 0001 0000 1100 0110 1111 0111 1010 0000 1011 0101 1110 1101 1000 1101
1.0000001(十进制):
1.0000 0000 0000 0000 0000 0001 1010 1101 0111 1111 0010 1001 1010 1011 1100 1010 1111 0100 1
1.00000001(十进制):
1.0000 0000 0000 0000 0000 0000 0010 1010 1111 0011 0001 1101 1100 0100 0110 0001 0001 1000 0111 01
float 型尾数位宽只有 23 位(除去最前面的 1),可以看出:
- 1.0000001,二进制表示的前 23 位皆已丢失。
- 1.00000001,二进制表示的前 26 位皆已丢失(死的很彻底)。
这里断言,从 1.0000001(包括)开始,更高精度的数 float 型都无法表示,验证一下(打脸):
/* ORIGIN 表示原数据
* IEEE 表示实际在内存中存储的 bit 序列
* PRINT 表示再次打印出来是啥
*/
void main(void) {
float f = 1.0000001;
printf("ORIGIN: %sn", "1.0000001");
// 这里不符合上述断言的预期,从推理上来说尾数部分应该是 0,实际为 1
printf("IEEE : 0x%xn", *(uint32_t *)&f);
printf("PRINT : %.20fn", f);
// 这里符合预期
f = 1.00000001;
printf("ORIGIN: %sn", "1.00000001");
printf("IEEE : 0x%xn", *(uint32_t *)&f);
printf("PRINT : %.20fn", f);
}
上述程序输出:
ORIGIN: 1.0000001
IEEE : 0x3f800001 < < < 此输出不符合预期
PRINT : 1.00000011920928955078
ORIGIN: 1.00000001
IEEE : 0x3f800000 < < < 符合预期,后面的精度皆已丢失
PRINT : 1.00000000000000000000
虽然被打脸了,但基本符合预期,作为一个工程角度的文章,就分析到这里。
如有同学知道何因,敬请告知。
4. 定点数
4.1 基本概念
工程角度来说,定点数的本质就是使用整型变量实现小数运算。
定点数“定”的本质,就是小数点是固定的,小数点后精确的位数是固定的。
定点数的理解有点直觉,请牢记心法:眼中无点,心中有点。
为辅助理解,使用十进制的定点数来讲解。
现在你在一台不支持使用浮点类型的计算机上工作:
- 如果你要执行的算法不需要很高的精度,无需小数位。
这种情况非常简单,所有的数直接用整型表示,该做什么运算就做什么运算。
7 + 2 = 9
7 - 2 = 5
7 * 2 = 14
7 / 2 = 3
所有的数本质上是小数位只有 0 位的小数。
- 如果你要执行的算法需要保留小数点后 1 位
这情况下,我们可以使用 10 来表示逻辑上的 1,11来表示逻辑上的 1.1。
那么 35 表示逻辑上的 3.5,15 表示逻辑上的 1.5:
35 + 15 = 50(逻辑上的 5.0)
35 - 15 = 20(逻辑上的 2.0)
35 * 15 = 525(逻辑上的 52.5) < < < 直觉可知需要修正
35 / 15 = 2(逻辑上的 0.2) < < < 直觉可知需要修正
从直觉上看,两个定点数的乘除法需要对最终结果进行修正,但是怎么理解这里需要修正?
- 定点数乘法运算的修正
假设计算 3.5 * 1.5,摆出算式:
试问,最终的结果 525,它的小数点应该点在哪?有小学算术底子的应该都知道,点在第一个 5 后面,结果是 5.25。
那在定点数场景下,用 35 表示 3.5,15 表示 1.5,算出来的结果 525,请问逻辑上的小数点应该点在哪?当然与上面一样。
对于 1 位定点数来说,35 * 15 最终的结果要再除以 10,才是最终计算的结果,本质上是因为 35 和 15 都是一个有一个小数位的小数(请默念心法),它们相乘后,会对最终的结果贡献出 2 位的小数部分来(如同 3.5 x 1.5 = 5.25,5.25 其实是有两位小数部分的)。
因而定点数下,需要通过再除以 10(抹去多出来的那个小数位)来对最终的结果进行修正,也就是 52,逻辑上的结果就是 5.2。
- 定点数除法运算的修正
除法的本质与乘法是反着来的,乘法是多出来一个小数位,除法是少了一个小数位。
观察到 3.5 / 1.5 = 2,其结果 2 是一个小数位长度为 0 的数,它丢掉了原本应该有的 1 位小数精度,而其本质应该是 2.0。
如果用 35 / 15,答案还是 2,但是这个 2 是丢掉了 1 位小数精度后的结果,通过乘以 10 来补回丢失的 1 位小数精度,修正结果是 20。
实际工程中,由于计算机的整型运算会自动取整,所以在做定点数运算时,如果先算结果再修正,不可避免会丧失精度(唯一的 1 位小数精度都丢失了)。
要规避这个问题,可以先修正再做除法,其与先做除法再修正逻辑上等价,但可以保留小数部分的精度,也即:
(35 * 10) / 15 = 23,逻辑结果对应 2.3。
- 定点数的加减法无需修正的本质,是因为这此二者运算不会对小数位精度产生影响。
4.2 推广及工程实践
将上一节的基本概念进行推广,假设要执行的算法需要保留小数点后 N 位。
经过上节的分析,应该很好理解,这里罗列几个重要的点即可:
- 将一个逻辑上的数 a 转换成定点表示:a * 10N
- 两个定点数的乘法修正:a * b / 10N(两个 N 位的定点数相乘,结果是 2N 位的定点数,要抹掉多余的 N 位小数)。
- 两个定点数的除法修正:a * 10N / b(最终结果补回 N 位小数)。
对于定点数的四则运算方面我们已经掌握,还剩最后一步比较 tricky 的地方:如何取出一个定点数的整数及小数部分(我们希望能打印出最终的逻辑值)。
下面讨论小数点后为 3 位(N = 3)的定点数 3165。
- 取出整数部分
这个比较简单容易理解,3165 / 103 = 3。
- 取出小数部分
小数部分是 165,直接返回 165 不是不行,但是考虑一个场景:只保留小数点后 1 位。该场景下如何设计一个通用的算法将小数点后只保留 1 位的小数部分返回?
一种可行的手法是,先把 165 x 101(保留小数点后 M 位就乘以 10M),得到 1650,再将 1650 这个定点数取其整数部分即可。说的形象点,就是把想要的小数部分给“挤”到整数位去。
- 实现四舍五入
假设你有一个实实在在的小数 3.165,如何实现四舍五入(小数点后保留 1 位)?
一个可行的算法是,给这个小数,加上 0.05,如此在小数点后第 2 位 >= 5 时,可以产生进位溢出到第 1 位上。
反之不会对第 1 位产生影响。
3.165 + 0.05 = 3.215,保留 1 位小数即是 3.2。
推广到一般情况,针对一个 N 位定点数,我们希望实现保留 M 位,且小数部分的第 M + 1 位四舍五入。
先看个表:
从上图可以看出,若要实现保留 M 位小数点的四舍五入,需要加上 5 * 10N-(M+1) 。
或者,可以从另一个角度来推导。假设要加上的这个数在定点数表示法下为 x,已知定点数表示法下的逻辑 1 为 10N,而我们想要加上的逻辑值为 5 * 10-(M + 1),那么必然满足下式:
解得:
x = 5 * 10N-(M+1)
用简单的代码表示:
// 定义 fixed-point 数类型
typedef unsigned long long fp_t;
// 3 位定点数
#define N 3
// 最终取值保留小数点后 1 位
#define M 1
// 将非定点数转成定点数
fp_t __to_FP(unsigned long long n)
{
return n * pow(10, N);
}
// 获取一个定点数的整数部分
unsigned long long fetch_INT(fp_t n)
{
return n / pow(10, N);
}
// 去掉定点数的整数部分
unsigned long long __wipe_INT(fp_t n)
{
unsigned long long INT = fetch_INT(n);
return n - __to_FP(INT);
}
// 获取定点数的小数部分
unsigned long long fetch_FRAC(fp_t n)
{
return fetch_INT(__wipe_INT(n) * pow(10, M));
}
// 下面是四则运算
fp_t add0(fp_t a, unsigned long long b)
{
return a + __to_FP(b);
}
fp_t add1(unsigned long long a, unsigned long long b)
{
return add0(__to_FP(a), b);
}
fp_t sub0(fp_t a, unsigned long long b)
{
return a - __to_FP(b);
}
fp_t sub1(unsigned long long a, unsigned long long b)
{
return sub0(__to_FP(a), b);
}
fp_t mul0(fp_t a, unsigned long long b)
{
return (a * __to_FP(b)) / pow(10, N);
}
fp_t mul1(unsigned long long a, unsigned long long b)
{
return mul0(__to_FP(a), b);
}
fp_t div0(fp_t a, unsigned long long b)
{
return a * pow(10, N) / __to_FP(b);
}
fp_t div1(unsigned long long a, unsigned long long b)
{
return div0(__to_FP(a), b);
}
// 四舍五入
fp_t fp_round(fp_t a)
{
return a + 5 * pow(10, N - (M + 1));
}
void main() {
/* 3 + 5 = 8
* 8 - 1 = 7
* 7 * 2 = 14
* 14 / 3 = 4.666666
*/
fp_t n = add1(3, 5);
n = sub0(n, 1);
n = mul0(n, 2);
n = div0(n, 3);
// 最终符合预期的输出是 4.6
printf("%llu.%llun", fetch_INT(n), fetch_FRAC(n));
// 符合预期的输出是 4.7
printf("%llu.%llun", fetch_INT(fp_round(n)), fetch_FRAC(fp_round(n)));
}
4.3 二进制定点数
对 10 进制定点数表示法的讨论可以辅助理解,实际工程中 10 进制在运算方面没有 2 进制高效(2 进制可以使用位移代替指数运算),内核在定点数方面的实践即如此。
假设想使用一个整型的低 N 位来表示小数部分,几个关键点在于:
- 将一个逻辑上的数 a 转成定点数表示:a << N(等价于 a * 2N)
因为逻辑上的 1,在定点数表示法下为 1 << N,那么逻辑上的数 a,其在定点数表示法中对应的数 x,满足如下方程:
解得:
x = a * 2N = (a < < N)
- 两个定点数的乘法修正:(a * b) >> N(多出来 N 个二进制位)
- 两个定点数的除法修正:(a << N) / b(少了 N 个二进制位)
- 取整数部分:a >> N(把低 N 位的小数移除掉)
- 取小数部分:
分两步走:1. 去掉整数部分,也即把整数部分掩掉:a & ((1 << N) - 1),2. 把想要保留的小数部分“挤”到整数位,因为我们要取的是十进制下的 M 位,所以需要对去掉整数部分后的数,乘上 10M,再取整,即 fetch_INT(__wipe_INT(a) * 10M)
- 四舍五入:
与十进制类似,要加上二进制定点数下的逻辑值 5 * 10-(M+1),将十进制下小数点后第 M + 1 位溢出到第 M 位上。
这里的关键在于求出 N 位二进制定点数表示法下,对应逻辑值 5 * 10-(M+1) 的定点数的值。实际上,这个值满足下面的方程:
解得:
x = 2N * 5 * 10-(M+1)
代码实现如下:
// 定义 fixed-point 数类型
typedef unsigned long long fp_t;
// 第 N 位用来表示小数位
// 本质上是用 (1 < < 11) 表示 1
#define N 11
// 最终取值保留小数点后 1 位
#define M 1
// 将非定点数转成定点数
fp_t __to_FP(unsigned long long n)
{
return n < < N;
}
// 获取定点数的整数部分
unsigned long long fetch_INT(fp_t n)
{
return n > > N;
}
// 去掉定点数的整数部分
unsigned long long __wipe_INT(fp_t n)
{
return n & ((1 < < N) - 1);
}
// 获取定点数的小数部分
unsigned long long fetch_FRAC(fp_t n)
{
return fetch_INT(__wipe_INT(n) * pow(10, M));
}
// 下面是四则运算
fp_t add0(fp_t a, unsigned long long b)
{
return a + __to_FP(b);
}
fp_t add1(unsigned long long a, unsigned long long b)
{
return add0(__to_FP(a), b);
}
fp_t sub0(fp_t a, unsigned long long b)
{
return a - __to_FP(b);
}
fp_t sub1(unsigned long long a, unsigned long long b)
{
return sub0(__to_FP(a), b);
}
fp_t mul0(fp_t a, unsigned long long b)
{
return (a * __to_FP(b)) > > N;
}
fp_t mul1(unsigned long long a, unsigned long long b)
{
return mul0(__to_FP(a), b);
}
fp_t div0(fp_t a, unsigned long long b)
{
return (a < < N) / __to_FP(b);
}
fp_t div1(unsigned long long a, unsigned long long b)
{
return div0(__to_FP(a), b);
}
// 四舍五入
fp_t fp_round(fp_t a)
{
return a + __to_FP(1) * (5 * pow(10, -(M + 1)));
}
void main() {
/* 3 + 5 = 8
* 8 - 1 = 7
* 7 * 2 = 14
* 14 / 3 = 4.6
*/
fp_t n = add1(3, 5);
n = sub0(n, 1);
n = mul0(n, 2);
n = div0(n, 3);
// 符合预期的输出是 4.6
printf("%llu.%llun", fetch_INT(n), fetch_FRAC(n));
// 符合预期的输出是 4.7
printf("%llu.%llun", fetch_INT(fp_round(n)), fetch_FRAC(fp_round(n)));
}
4.4 内核的工程实践
内核的工程实践中,固定使用 11 位的定点数,且固定保留小数点后 2 位,4.3 节中的通用算法将进一步得到简化:
// 相当于 N,11 位二进制定点数
#define FSHIFT 11 /* nr of bits of precision */
// 用 (1 < < N) 表示逻辑上的 1
// 相当于 __to_FP(1)
#define FIXED_1 (1<
要实现定点数小数部的四舍五入,原理是给定点数加上一个值,使其对应小数位溢出。内核中一个使用四舍五入的地方:
/* avenrun[*] 是定点数表示的当前负载
* offset 是要进行四舍五入传入的溢出值
*/
void get_avenrun(unsigned long *loads, unsigned long offset, int shift)
{
loads[0] = (avenrun[0] + offset) < < shift;
loads[1] = (avenrun[1] + offset) < < shift;
loads[2] = (avenrun[2] + offset) < < shift;
}
static int loadavg_proc_show(struct seq_file *m, void *v)
{
unsigned long avnrun[3];
/* 传入 FIXED_1/200,保留 2 位小数下的四舍五入。
* 定点数下的 FIXED_1/200,表示逻辑上的 0.005
*/
get_avenrun(avnrun, FIXED_1/200, 0);
seq_printf(m, "%lu.%02lu %lu.%02lu %lu.%02lun",
LOAD_INT(avnrun[0]), LOAD_FRAC(avnrun[0]),
LOAD_INT(avnrun[1]), LOAD_FRAC(avnrun[1]),
LOAD_INT(avnrun[2]), LOAD_FRAC(avnrun[2]));
return 0;
}
5. 定点数实现的指数衰退
5.1 通用算法
有了前面详实的铺垫,这一节简单明了,将 2.3 节程序中的浮点型变量,换成定点数。
值得注意的点在于,2.3 节 cal_load 中定义的衰退系数 w = 0.6,要换算成定点数表示下的值(1229),具体转换方法参考 4.3 节,不再赘述。
typedef unsigned long long fp_t;
#define N 11
#define M 1
fp_t __to_FP(unsigned long long n)
{
return n < < N;
}
unsigned long long fetch_INT(fp_t n)
{
return n > > N;
}
unsigned long long __wipe_INT(fp_t n)
{
return n & ((1 < < N) - 1);
}
unsigned long long fetch_FRAC(fp_t n)
{
return fetch_INT(__wipe_INT(n) * pow(10, M));
}
fp_t add(fp_t a, fp_t b)
{
return a + b;
}
fp_t add0(fp_t a, unsigned long long b)
{
return a + __to_FP(b);
}
fp_t add1(unsigned long long a, unsigned long long b)
{
return add0(__to_FP(a), b);
}
fp_t mul(fp_t a, fp_t b)
{
return (a * b) > > N;
}
fp_t mul0(fp_t a, unsigned long long b)
{
return (a * __to_FP(b)) > > N;
}
fp_t mul1(unsigned long long a, unsigned long long b)
{
return mul0(__to_FP(a), b);
}
fp_t fp_round(fp_t a)
{
return a + __to_FP(1) * (5 * pow(10, -(M + 1)));
}
fp_t cal_load(fp_t last_load, unsigned long long curr)
{
// 1229 是逻辑值 0.6 的定点数表示
static fp_t w = 1229;
return add(mul0(w, curr), mul(__to_FP(1) - w, last_load));
}
void main() {
int i;
fp_t load = 0;
unsigned long long samplings[] = {
[0] = 9,
[1] = 8,
[2] = 7,
[3] = 6,
[4] = 5,
[5] = 7,
[6] = 6,
[7] = 4,
[8] = 2,
[9] = 1,
};
for (i = 0; i < sizeof(samplings) / sizeof(unsigned long long); ++i) {
load = cal_load(load, samplings[i]);
printf("%llu.%llu(%llu.%llu)n", fetch_INT(load), fetch_FRAC(load), fetch_INT(fp_round(load)), fetch_FRAC(fp_round(load)));
}
}
# 输出,与浮点运算一致,括号内是四舍五入后的数值
5.4(5.4)
6.9(7.0)
6.9(7.0)
6.3(6.4)
5.5(5.6)
6.4(6.4)
6.1(6.2)
4.8(4.9)
3.1(3.1)
1.8(1.9)
5.2 内核的工程实践
内核的相关约束更 specific,因而代码反而更简单:
// 11 位定点数
#define FSHIFT 11 /* nr of bits of precision */
// 逻辑 1 在定点数下的表示
#define FIXED_1 (1<
CALC_LOAD 中采用的是历史值“乘以”EXP,而不是当前值“乘以”EXP,实际上当前值乘的是 (1 - EXP),这个注意与我们前面代码中对衰退系数的使用是反着来的。
5.3 内核衰退系数的设计
注意看这三个宏内核的代码的注释:
EXP_1,5 秒钟采样一次,1 分钟周期的衰退系数。
EXP_5,5 秒钟采样一次,5 分钟周期的衰退系数。
EXP_15,5 秒钟采样一次,15 分钟周期的衰退系数。
对应的逻辑值:
EXP_1 = 1884 / 2048 = 0.92
EXP_5 = 2014 / 2048 = 0.98
EXP_15 = 2037 / 2048 = 0.99
拿 EXP_1 来说,5 秒钟一次采样,1 分钟内采样 12 次,根据 2.2 节 式(1),当前 1 分钟采样周期内,最前面一次的采样对当前系统负载的影响权重为:
![image.png](/img/bVbLEs)
同理,EXP_5、EXP_15,在采样周期内最前面一次采样的影响权重为:
![image.png](/img/bVbLEu)
内核衰退系数的设计,使得每周期最前面的采样值,对当前整体评估的影响忽略不计。
6. 总结
本文分析了定点数和指数衰退算法的底层原理及方法论实践,至于具体这些函数怎么被用来计算负载,调用关系拉一拉即可。
-
二进制
+关注
关注
2文章
795浏览量
41652 -
十进制
+关注
关注
0文章
67浏览量
13210 -
FPU
+关注
关注
0文章
42浏览量
21314 -
python
+关注
关注
56文章
4796浏览量
84671 -
LINUX内核
+关注
关注
1文章
316浏览量
21646
发布评论请先 登录
相关推荐
评论