【时间测量】代码运行时间的测量方法【linux/window】
一,返回单位为毫秒 #include DWORD dwStart = GetTickCount(); // 测试代码 DWORD dwTime = GetTickCount() - dwStart; 注意:GetTickCount()精确度有限,跟CPU有关,一般精确度在16ms左右,最精确也不会精确过10ms,这
#include<windows.h>
DWORD dwStart = GetTickCount();
// 测试代码
DWORD dwTime = GetTickCount() - dwStart;
注意:GetTickCount()精确度有限,跟CPU有关,一般精确度在16ms左右,最精确也不会精确过10ms,这就是说如果你的时间间隔在16ms以内的话,两个时间相减为0,如果大于16ms且小于32ms的话,两个时间相减为16ms(也不完全严格,有的时候会是15或者17,根据当时CPU的处理情况而定)。其实也就是说你得到的这个差是实际时间间隔除以16(具体是几取决于你机器的处理能力,但是不会小于10),把余数舍弃。
#include<time.h>
unsigned long start,stop;
start=time(NULL); //取值为秒
//你的程序
stop=time(NULL);
printf("运行时间:%ld",stop-start);
三,精确计时法
QueryPerformanceCounter()这个函数返回高精确度性能计数器的值,它可以以微妙为单位
计时.但是 QueryPerformanceCounter()确切的精确计时的最小单位是与系统有关的,所以,必
须 要 查 询 系 统 以 得 到 QueryPerformanceCounter() 返 回 的 嘀 哒 声 的 频
率.QueryPerformanceFrequency()提供了这个频率值,返回每秒嘀哒声的个数.计算确切的时
间是从第一次调用 QueryPerformanceCounter()开始的
使用 window 操作系统本身提供的 API 接口,程序如下:
#include<windows.h>
LARGE_INTEGER Freq; LARGE_INTEGER start; LARGE_INTEGER end;
QueryPerformanceFrequency(&Freq); // 获取时钟周期
QueryPerformanceCounter(&start); // 获取时钟计数
你的程序
QueryPerformanceCounter(&end);
/*此处*1000,以毫秒为单位;*1000000 以微秒为单位*/
/*由于执行时间极短(可能是几微秒),所以采用微秒为单位*/
printf("%d",(end.QuadPart-start.QuadPart)*1000000/Freq.QuadPart);
注意:1s=10^3ms(毫秒)=10^6μs(微秒)=10^9ns(纳秒)=10^12ps(皮秒)=10^15fs(飞秒)=10^18as(阿秒)=10^21zm(仄秒)=10^24ym(幺秒)
例子:
#include <stdio.h>
#include<windows.h>
int main()
{
LARGE_INTEGER Freq; //64位有符号整数值.
LARGE_INTEGER start;
LARGE_INTEGER end;
QueryPerformanceFrequency(&Freq); // 获取时钟周期 “1次/秒”,记做Hz(赫兹)。1Hz就是每秒一次
QueryPerformanceCounter(&start); // 获取时钟计数
Sleep(1000);//毫秒为单位
QueryPerformanceCounter(&end);
/*此处*1000,以毫秒为单位;*1000000 以微秒为单位*/
/*由于执行时间极短(可能是几微秒),所以采用微秒为单位*/
/* 1s=10^3ms(毫秒)=10^6μs(微秒)=10^9ns(纳秒) */
printf("%d",(end.QuadPart-start.QuadPart)*1000/Freq.QuadPart);
return 0;
}
四,如果是在linux平台下面呢?
时间的测量有多种方式。一种是C语言库函数 time(),它可以提供秒级的计时,比较粗糙。
一种是C语言库函数gettimeofday(),大约可以精确到微妙,但会受到CPU调度的影响。
一种是时间戳计时器(Time Stamp Counter),可以达到纳秒级计时精度。
1)time 命令 — 执行命令并计时
time find . -name "*.c" |xargs wc -l // 统计执行命令时间
real 0m33.748s
user 0m0.772s
sys 0m1.044s
(1)实际时间(real time): 从command命令行开始执行到运行终止的消逝时间;
(2)用户CPU时间(user CPU time): 命令执行完成花费的用户CPU时间,即命令在用户态中执行时间总和;
(3)系统CPU时间(system CPU time): 命令执行完成花费的系统CPU时间,即命令在核心态中执行时间总和。
其中,用户CPU时间和系统CPU时间之和为CPU时间,即命令占用CPU执行的时间总和。实际时间要大于CPU时间,因为Linux是多任务操作系统,往往在执行一条命令时,系统还要处理其它任务。
另一个需要注意的问题是即使每次执行相同命令,但所花费的时间也是不一样,其花费时间是与系统运行相关的。
struct timeval
{
long tv_sec; //秒域
long tv_usec; //微妙域
}
(tvend.tv_sec-tvstart.tv_sec)+(tvend.tv_usec-tvstart.tv_usec)/1000000 = 以秒为单位的计时时间。
以下得到以微秒为计时单位的时间
#include <sys/time.h>
#include "stdio.h"
int main()
{
struct timeval tstart,tend;
gettimeofday(&tstart,NULL);
for(int i=0;i<10000;++i)
printf("");
gettimeofday(&tend,NULL);
long int use_useconds=1000000*(tend.tv_sec - tstart.tv_sec) + (tend.tv_usec - tstart.tv_usec);
printf("%ld\n",use_useconds);
return 0;
}
更多推荐
所有评论(0)