假设浮点数学可用,则 OP 的算法是一个很好的算法,并且由于在 a 和 b 的幅度显着不同时精度损失,OP 的算法总是优于替代 a + f * (b - a)。
例如:
// OP's algorithm
float lint1 (float a, float b, float f) {
return (a * (1.0f - f)) + (b * f);
}
// Algebraically simplified algorithm
float lint2 (float a, float b, float f) {
return a + f * (b - a);
}
在该示例中,假设 32 位浮点数 lint1(1.0e20, 1.0, 1.0) 将正确返回 1.0,而 lint2 将错误地返回 0.0。
当操作数的大小差异很大时,大部分精度损失出现在加法和减法运算符中。在上述情况下,罪魁祸首是b - a 中的减法和a + f * (b - a) 中的加法。 OP 的算法不会受此影响,因为在相加之前组件已完全相乘。
对于 a=1e20, b=1 的情况,以下是不同结果的示例。测试程序:
#include <stdio.h>
#include <math.h>
float lint1 (float a, float b, float f) {
return (a * (1.0f - f)) + (b * f);
}
float lint2 (float a, float b, float f) {
return a + f * (b - a);
}
int main () {
const float a = 1.0e20;
const float b = 1.0;
int n;
for (n = 0; n <= 1024; ++ n) {
float f = (float)n / 1024.0f;
float p1 = lint1(a, b, f);
float p2 = lint2(a, b, f);
if (p1 != p2) {
printf("%i %.6f %f %f %.6e\n", n, f, p1, p2, p2 - p1);
}
}
return 0;
}
输出,格式稍作调整:
f lint1 lint2 lint2-lint1
0.828125 17187500894208393216 17187499794696765440 -1.099512e+12
0.890625 10937500768952909824 10937499669441282048 -1.099512e+12
0.914062 8593750447104196608 8593749897348382720 -5.497558e+11
0.945312 5468750384476454912 5468749834720641024 -5.497558e+11
0.957031 4296875223552098304 4296874948674191360 -2.748779e+11
0.972656 2734375192238227456 2734374917360320512 -2.748779e+11
0.978516 2148437611776049152 2148437474337095680 -1.374390e+11
0.986328 1367187596119113728 1367187458680160256 -1.374390e+11
0.989258 1074218805888024576 1074218737168547840 -6.871948e+10
0.993164 683593798059556864 683593729340080128 -6.871948e+10
1.000000 1 0 -1.000000e+00