c语言看函数运行时间 c语言看函数运行时间怎么看( 二 )


能最后得到ss.mmnn格式的运行时间 。在POSIX兼容系统中 , CLOCKS_PER_SEC的值为1,000,000的 , 也就是
1MHz 。
最后,使用这个函数能达到的精度大约为10ms 。
2. 使用times的方法:
times的用法基本和clock类似,同样是取得CPU时间片的数量,所不同的是要除以的时间单位值为sysconf(_SC_CLK_TCK) 。
3. 使用gettimeofday的方法:
用gettimeofday直接提取硬件时钟进行运算,得到的结果的精度相比前两种方法提高了很多 。
但是也正由于它提取硬件时钟的原因,这个方法只能计算程序开始时间和结束时间的差值 。而此时系统中如果在运行其他的后台程序 , 可能会影响到最终结果的值 。如果后台繁忙,系统dispatch过多的话,并不能完全真实反映被测量函数的运行时间 。
4. 使用getrusage的方法:
getrusage得到的是程序对系统资源的占用信息 。只要指定了RUSAGE_SELF,就可以得到程序本身运行所占用的系统时间 。
c语言怎么测试一段程序的运行时间?C/C++中的计时函数是clock(),而与其相关的数据类型是clock_t 。在MSDN中,查得对clock函数定义如下:
clock_t clock( void );
这个函数返回从“开启这个程序进程”到“程序中调用clock()函数”时之间的CPU时钟计时单元(clock tick)数,在MSDN中称之为挂钟时间(wal-clock) 。其中clock_t是用来保存时间的数据类型,在time.h文件中,我们可以找到对它的定义:
#ifndef _CLOCK_T_DEFINED
typedef long clock_t;
#define _CLOCK_T_DEFINED
#endif
很明显,clock_t是一个长整形数 。在time.h文件中,还定义了一个常量CLOCKS_PER_SEC,它用来表示一秒钟会有多少个时钟计时单元,其定义如下:
#define CLOCKS_PER_SEC ((clock_t)1000)//CLOCKS_PER_SEC为系统自定义的
可以看到每过千分之一秒(1毫秒),调用clock()函数返回的值就加1 。下面举个例子,你可以使用公式clock()/CLOCKS_PER_SEC来计算一个进程自身的运行时间:
void elapsed_time()
{
printf("Elapsed time:%u secs./n",clock()/CLOCKS_PER_SEC);
}
当然,你也可以用clock函数来计算你的机器运行一个循环或者处理其它事件到底花了多少时间:
#include “stdio.h”
#include “stdlib.h”
#include “time.h”
int main( )
{
long i = 10000000L;
clock_t start, finish;
double Total_time;
/* 测量一个事件持续的时间*/
printf( "Time to do %ld empty loops is ", i );
start = clock();
while( i--) ;
finish = clock();
Total_time = (double)(finish-start) / CLOCKS_PER_SEC;
printf( "%f seconds/n", Total_time);
return 0;
}
在笔者的机器上,运行结果如下:
Time to do 10000000 empty loops is 0.03000 seconds
上面我们看到时钟计时单元的长度为1毫秒,那么计时的精度也为1毫秒,那么我们可不可以通过改变CLOCKS_PER_SEC的定义,通过把它定义的大一些,从而使计时精度更高呢?通过尝试,你会发现这样是不行的 。在标准C/C++中,最小的计时单位是一毫秒 。
参考资料
c语言测试程序执行时间.csdn博客[引用时间2017-12-31]
C语言中如何输出显示程序的运行时间? 望赐教!BOOL QueryPerformanceFrequency(LARGE_INTEGER *lpFrequency);可以返回硬件支持c语言看函数运行时间的高精度计数器c语言看函数运行时间的频率 。先调用QueryPerformanceFrequency()函数获得机器内部计时器的时钟频率 。接着在需要严格计时的事件发生前和发生之后分别调用QueryPerformanceCounter()c语言看函数运行时间,利用两次获得的计数之差和时钟频率c语言看函数运行时间,就可以计算出事件经历的精确时间 。

推荐阅读