CPU的分支预测对你的代码有什么影响

发布时间:2023-02-02  

分支预测的英文名字是「Branch Prediction」


大家可以在Google上搜索这个关键字,可以看到关于分支预测的很多内容,不过要搞清楚分支预测如何工作的,才是问题的关键。


分支预测对程序的影响


我们来看看下面的两段代码


代码1


#include

#include

#include

int main()

{

    // Generate data

    const unsigned arraySize = 32768;

    int data[arraySize];

    for (unsigned c = 0; c < arraySize; ++c)

        data[c] = std::rand() % 256;

    // !!! With this, the next loop runs faster.

    //std::sort(data, data + arraySize);

    // Test

    clock_t start = clock();

    long long sum = 0;

    for (unsigned i = 0; i < 100000; ++i) {

        for (unsigned c = 0; c < arraySize; ++c) { // Primary loop

            if (data[c] >= 128) sum += data[c];

        }

    }

    double elapsedTime = static_cast(clock()-start) / CLOCKS_PER_SEC;

    std::cout << elapsedTime << 'n';

    std::cout << "sum = " << sum << 'n';

}


执行结果


@ubuntu:/data/study$ g++ fenzhi.cpp && ./a.out

21.6046

sum = 314931600000


代码2


#include

#include

#include

int main()

{

    // Generate data

    const unsigned arraySize = 32768;

    int data[arraySize];

    for (unsigned c = 0; c < arraySize; ++c)

        data[c] = std::rand() % 256;

    // !!! With this, the next loop runs faster.

    std::sort(data, data + arraySize);

    // Test

    clock_t start = clock();

    long long sum = 0;

    for (unsigned i = 0; i < 100000; ++i) {

        for (unsigned c = 0; c < arraySize; ++c) { // Primary loop

            if (data[c] >= 128) sum += data[c];

        }

    }

    double elapsedTime = static_cast(clock()-start) / CLOCKS_PER_SEC;

    std::cout << elapsedTime << 'n';

    std::cout << "sum = " << sum << 'n';

}


执行结果:


@ubuntu:/data/study$ g++ fenzhi.cpp && ./a.out

8.52157

sum = 314931600000


第一段代码生成随机数组后,没有进行排序,第二段代码对随机的数组进行排序,执行的时间上发生了非常大的差异。


所以,他们发生了什么事情呢?


导致他们结果不同的原因,就是分支预测,分支预测是CPU处理器对程序的一种预测,和CPU架构有关系,现在的很多处理器都有分支预测的功能。


CPU在执行这段代码的时候


if (data[c] >= 128) sum += data[c];

CPU会有一个提前预测机制,比如前面的执行结果都是true,那么下一次在判断if的时候,就会默认认为是true来处理,让下面的几条指令提前进入预装。


当然,这个判断不会影响实际的结果输出,这个判断只是为了让CPU并行执行代码。


CPU执行一条指令分为几个阶段



既然是分阶段执行,也就是我们正常说的pipeline(流水线执行)。


流水线的工人只要完成自己负责的内容就好了,没有必要去关心其他的人处理。


那如果我有一段代码,如下:



int a = 0;

a += 1;

a += 2;

a += 3;







从这个图上我们可以看到,我们认为是在执行 a = 0结束后,才会执行a+=1。


但是实际CPU是在执行a=0的第一条执行后,马上就去执行a+=1的第一条指令了。


也就因为这样,执行速度上得到了大幅度的提升。

但是对于if() 语言,在没有分支预测的时候,我们需要等待if()执行出现结果后才能继续执行下一个代码。






如果存在分支预测的情况





通过比较我们可以发现,如果存在分支预测的时候,就让执行速度变快了。





那如果预测失败,会不会就影响了执行的时间,答案是肯定的。


在前面的例子中,没有对数组排序的情况下,分支预测大部分都会是失败的,这个时候就会在执行结束后重新取指令执行,会严重影响执行效率。


而在排序后的例子中,分支预测一直处于成功的状态,CPU的执行速率得到大幅度的提升。


如果解决分支预测引起的性能下降


分支预测一定会存在一定的能性下降,想让性能提升的方法就是不要使用这个该死的if语句。

比如,上面的代码,我们可以修改成这样


比如,我们看到的绝对值代码,里面也用了这样的思想


/**

 * abs - return absolute value of an argument

 * @x: the value. If it is unsigned type, it is converted to signed type first.

 * char is treated as if it was signed (regardless of whether it really is)

 * but the macro's return type is preserved as char.

 *

 * Return: an absolute value of x.

 */

#define abs(x) __abs_choose_expr(x, long long,

    __abs_choose_expr(x, long,

    __abs_choose_expr(x, int,

    __abs_choose_expr(x, short,

    __abs_choose_expr(x, char,

    __builtin_choose_expr(

      __builtin_types_compatible_p(typeof(x), char),

      (char)({ signed char __x = (x); __x<0?-__x:__x; }),

      ((void)0)))))))


#define __abs_choose_expr(x, type, other) __builtin_choose_expr(

  __builtin_types_compatible_p(typeof(x), signed type) ||

  __builtin_types_compatible_p(typeof(x), unsigned type),

  ({ signed type __x = (x); __x < 0 ? -__x : __x; }), other)


当然,你也可以这样写


int abs(int i){

   if(i<0)

    return ~(--i);

  return i;

}


所以说,计算机的尽头是数学


文章来源于:电子工程世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

相关文章

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>