linux 计算程序运行时间

http://blog.sina.com.cn/s/blog_4b1849e4010115hb.html

(2012-07-10 19:48:14)
标签:

转载

分类:linux

写的全面的一篇
还有一种
int getitimer(int which, struct itimerval *value);
int setitimer(int which, const struct itimerval *value,
             struct itimerval *ovalue);
顺便转载一下,以备不时之需
http://blog.chinaunix.net/u2/85233/showart_1856092.html

还有篇不错的,学习汇编后可以看看:
http://sites.google.com/a/kingofat.com/windstorm/Article/measure-execution-time-precisely

我们有时需要得到程序的运行时间,但我们也要知道,根本不可能精确测量某一个程序运行的确切时间­[3],文献[4]中说的很明白,现摘录如下。

      我们平时常用的测量运行时间的方法并不是那么精确的,换句话说,想精确获取程序运行时间并不是那么容易的。也许你会想,程序不就是一条条指令么,每一条指令序列都有固定执行时间,为什么不好算?真实情况下,我们的计算机并不是只运行一个程序的,进程的切换,各种中断,共享的多用户,网络流量,高速缓存的访问,转移预测等,都会对计时产生影响。

      文献[4]中还提到:对于进程调度来讲,花费的时间分为两部分,第一是计时器中断处理的时间,也就是当且仅当这个时间间隔的时候,操作系统会选择,是继续当前进程的执行还是切换到另外一个进程中去。第二是进程切换时间,当系统要从进程A切换到进程B时,它必须先进入内核模式将进程A的状态保存,然后恢复进程B的状态。因此,这个切换过程是有内核活动来消耗时间的。具体到进程的执行时间,这个时间也包括内核模式和用户模式两部分,模式之间的切换也是需要消耗时间,不过都算在进程执行时间中了。

      那么有哪些方法能统计程序的运行时间呢?通过查找一些资料并结合自己的实践体会,摘录和总结了下面几种方法。

一、Linux的time命令

      Linux系统下统计程序运行实践最简单直接的方法就是使用time命令,文献[1,2]中详细介绍了time命令的用法。此命令的用途在于测量特定指令执行时所需消耗的时间及系统资源等资讯,在统计的时间结果中包含以下数据:

      (1) 实际时间(real time):从命令行执行到运行终止的消逝时间;

      (2) 用户CPU时间(user CPU time):命令执行完成花费的系统CPU时间,即命令在用户态中执行时间的总和;

      (3) 系统CPU时间(system CPU time):命令执行完成花费的系统CPU时间,即命令在核心态中执行时间的总和。

      其中,用户CPU时间和系统CPU时间之和为CPU时间,即命令占用CPU执行的时间总和。实际时间要大于CPU时间,因为Linux是多任务操作系统,往往在执行一条命令时,系统还要处理其他任务。另一个需要注意的问题是即使每次执行相同的命令,所花费的时间也不一定相同,因为其花费的时间与系统运行相关。

二、间隔计数[4]

      上面介绍的time命令能测量特定进程执行时所消耗的时间,它是怎么做到的呢?

      操作系统用计时器来记录每个进程使用的累计时间,原理很简单,计时器中断发生时,操作系统会在当前进程列表中寻找哪个进程是活动的,一旦发现进程A正在运行立马就给进程A的计数值增加计时器的时间间隔(这也是引起较大误差的原因)。当然不是统一增加的,还要确定这个进程是在用户空间活动还是在内核空间活动,如果是用户模式,就增加用户时间,如果是内核模式,就增加系统时间。这种方法的原理虽然简单但不精确。如果一个进程的运行时间很短,短到和系统的计时器间隔一个数量级,用这种方法测出来的结果必然是不够精确的,头尾都有误差。不过,如果程序的时间足够长,这种误差有时能够相互弥补,一些被高估一些被低估,平均下来刚好。从理论上很难分析这个误差的值,所以一般只有程序达到秒的数量级时用这种方法测试程序时间才有意义。

      这种方法最大的优点是它的准确性不是非常依赖于系统负载。

      实现方法之一就是上面介绍的time命令,之二是使用tms结构体和times函数。

      在Linux中,提供了一个times函数,原型是

      clock_t times( struct tms * buf );

这个tms的结构体为

struct tms

{

      clock_ttms_utime;            //user time

      clock_ttms_stime;            //system time

      clock_ttms_cutime;   //user time of reaped children

      clock_ttms_cstime;    //system time of reaped children

}

这里的cutime和cstime,都是对已经终止并回收的时间的累计,也就是说,times不能监视任何正在进行中的子进程所使用的时间。使用times函数需要包含头文件sys/times.h。

三、周期计数[4]

      为了给计时测量提供更高的准确度,很多处理器还包含一个运行在始终周期级别的计时器,它是一个特殊的寄存器,每个时钟周期它都会自动加1。这个周期计数器呢,是一个64位无符号数,直观理解,就是如果你的处理器是1GHz的,那么需要570年,它才会从2的64次方绕回到0,所以你大可不必考虑溢出的问题。但是这种方法是依赖于硬件的。首先,并不是每种处理器都有这样的寄存器的;其次,即使大多数都有,实现机制也不一样,因此,我们无法用统一的,与平台无关的接口来使用它们。这下,就要使用汇编了。当然,在这里实际用的是C语言的嵌入汇编:

void counter( unsigned *hi, unsigned *lo )
{
asm(”rdtsc; movl %�x,%0; movl %�x, %1″
: “=r” (*hi), “=r” (*lo)
:
: “�x”, “�x”);
}

第一行的指令负责读取周期计数器,后面的指令表示将其转移到指定地点或寄存器。这样,我们将这段代码封装到函数中,就可以在需要测量的代码前后均加上这个函数即可。最后得到的hi和lo值都是两个,除了相减得到间隔值外,还要进行一些处理,在此不表。

      不得不提出的是,周期计数方式还有一个问题,就是我们得到了两次调用counter之间总的周期数,但我们不知道是哪个进程使用了这些周期,或者说处理器是在内核还是在用户模式中。间隔计数的好处就是它是操作系统控制给进程计时的,我们可以知道具体哪个进程呢个模式;但是周期计数只测量经过的时间,他不管是哪个进程使用的。所以,用周期计数的话必须很小心。举个例子:

      double time()

      {

             start_counter();

             p();

             get_counter();

}

这样一段程序,如果机器的负载很重,会导致p运行时间很长,而其实p函数本身是不需要运行这么长时间的,而是上下文切换等过程将它的时间拖长了。

      而且,转移预测和高速缓存的命中率,对这个计数值也会有影响。通常情况下,为了减少高速缓存不命中给我们程序执行时间带来的影响,可以执行这样的代码:

      double time_warm(void)

      {

             p();

             start_counter();

             p();

             get_counter();

}

它让指令高速缓存和数据高速缓存都得到了warm-up。

      接下来又有问题。如果我们的应用是属于那种每次执行都希望访问新的数据的那种呢?在这种情况下,我们希望让指令高速缓存warm-up,而数据高速缓存不能warm-up,很明显,time-warm函数低估我们的运行时间了。进一步修改:

      double time_cold( void )

      {

             p();

             clear_cache();

             start_counter();

             p();

             get_counter();

}

注意,程序中加入了一个清除数据缓存的函数,这个函数的具体实现很简单,依情况而定,比如举个例子:

      volatile int tmp;

      static intdummy[N];    //N是需要清理缓存的字节数

 

      void clear_cache( void )

      {

             int i, sum = 0;

             for( i=1; i<N; i++)

                    dummy[i] = 2;

             for( i=1; i<N; i++)

                    sum += dummy[i];

             tmp = sum;

}

具体原理很简单,定义一个数组并在其上执行一个计算,计算过程中的数据会覆盖高速数据缓存中原有的数据。每一次的store和load都会让高速数据缓存cache这个数组,而定义为volatile的tmp则保证这段代码不会被优化。

      这样做,是不是就万无一失了呢?不是的,因为大多数处理器,L2高速缓存是不分指令和数据的,这样clear_cache会让所有p的指令也被清除,只不过:L1缓存中的指令还会保留而已。

      其实上面提到的诸多原因,都是我们不能控制的,我们无法控制让高速缓存去加载什么,不去加载什么,加载时去掉什么。保留什么。而且,这些误差通常都是会过高估计真实的运行时间。那么具体使用时,有没有什么办法来改善这种情况呢?有,就是TheK-Best Measurement Scheme。这其实很麻烦,所以在具体实践中都不用它。

四、gettimeofday函数计时[4]

      gettimeofday是一个库函数,包含在time.h中。它的功能是查询系统时钟,以确定当前的日期和时间。相对于间隔计数的小适用范围和周期计数的麻烦性,gettimeofday是一个可移植性更好相对较准确的方法。它的原型如下:

      struct timeval

      {

             long tv_sec;  //秒域

             longtv_usec;      //微妙域

}

int gettimeofday( struct timeval *tv, NULL);

      这个机制呢,具体的实现方式在不同系统上是不一样的,而且具体的精确程度是和系统相关的:比如在Linux下,是用周期计数来实现这个函数的,所以和周期计数的精确度差不多,但是在WindowsNT下,是使用间隔计数实现的,精确度就很低了。

      具体使用,就是在要计算运行时间的程序段之前和之后分别加上gettimeofday( &tvstart,NULL)、gettimeofday( &tvend, NULL),然后计算:

(tvend.tv_sec-tvstart.tv_sec)+(tvend.tv_usec-tvstart.tv_usec)/1000000

就得到了以秒为单位的计时时间。

五、clock函数

      clock也是一个库函数,仍然包含在time.h中,函数原型是:

      clock_t clock( void );

功能:返回自程序开始运行的处理器时间,如果无可用信息,返回-1。转换返回值若以秒计需除以CLOCKS_PER_SECOND。(注:如果编译器是POSIX兼容的,CLOCKS_PER_SECOND定义为1000000。)[5]

      使用clock函数也比较简单:在要计时程序段前后分别调用clock函数,用后一次的返回值减去前一次的返回值就得到运行的处理器时间,然后再转换为秒。举例如下:

      clock_t starttime, endtime;

      double totaltime;

      starttime = clock();

      

      endtime = clock();

      totaltime = (double)( (endtime - starttime)/(double)CLOCKS_PER_SEC);

六、time函数

      在time.h中还包含另一个时间函数:time。文献[6]对其进行了详细的介绍。通过time()函数来获得日历时间(CalendarTime),其原型为:time_t time( time_t * timer)。通过difftime函数可以计算前后两次的时间差:double difftime( time_t time1, time_ttime0)。用time_t表示的时间(日历时间)是从一个时间点(例如:1970年1月1日0时0分0秒)到此时的秒数,则此函数的前后两次时间差也是以秒为单位。

      比如:

      time_t startT, endT;

      double totalT;

      startT = time( NULL );

      

      endT = time( NULL );

      totalT = difftime( startT, endT);

      关于此函数的其他应用请参见文献[6]。

总结:

      使用相应的方法,调用相应的函数,还需要关注它们可以表示的范围和精度,这样才能“挑肥拣瘦”。先来看看时间函数中经常用到的两个数据类型的定义:

      // clock_t 的定义

#ifndef _CLOCK_T_DEFINED
typedef long clock_t;
#define _CLOCK_T_DEFINED
#endif

 

// time_t 的定义

#ifndef _TIME_T_DEFINED
typedef long time_t;

 

 

#define _TIME_T_DEFINED

#endif

 

      long型数据的取值范围是-2147483648 ~+2147483647。所以,gettimeofday函数取得的时间最大值为2147483647 + 2147483647 /1000000 = 2147485794.483647 s,大约为68.096年;clock函数取得的时间最大值为2147483647/ 1000000 = 2147.483647 s,大约为35.79分钟;

time函数取得的时间最大值为2147483647 s,大约为68年。

 

      这里只是介绍Linux平台下c语言中计算程序运行时间的方法,它们各有利弊,依据自己的需要可以使用对应的方法。在Windows平台下还有其他计算程序运行时间的方法,在此不叙。

 

参考文献

[1] “linuxtime命令详解”,http://www.admin99.net/read.php/185.htm;

[2] “Linux命令详解——time”,

http://blog.csdn.net/thinkerABC/archive/2006/04/01/647272.aspx;

[3] “测量程序运行时间的几种方法”,http://oss.lzu.edu.cn/blog/article.php?tid_905.html

[4] “如何精确测量程序运行时间”,http://www.forwind.cn/2008/05/10/measure-time-preciely/

[5] “clock”,http://blog.csdn.net/xxyakoo/archive/2008/12/17/3539590.aspx

[6] “c语言对时间的处理函数和计时的实现”,

http://blog.csdn.net/adm_qxx/archive/2007/05/02/1594788.aspx

 

Linux下时间函数time & gettimeofday

UNIX及Linux的时间系统是由「新纪元时间」Epoch开始计算起,单位为秒。Epoch是指定为1970年1月1日凌晨零点零分零秒,格林威

治时间。目前大部份的UNIX系统都是用32位来记录时间,正值表示为1970以后,负值则表示1970年以前。因此可以很简单地计算出其

时间领域:

2^31/86400(s) = 24855.13481(天) 大约 68.0958(年)

1970+68.0958 = 2038.0958
1970-68.0958 = 1901.9042

时间领域为[1901.9042,2038.0958]。

准确的时间为2038年一月十八日星期一晚上十点十四分七秒。那一刻,时间将会转为负数,变成1901年十二月十三日黑色星期五下午

三点四十五分五十二秒。这就是所谓的UNIX 2038BUG。在大部份的UNIX上,并没有所谓Y2K问题(千年虫),不过都有2038年问题。但

也有人认为2038年时64位机的应用会避免2038 BUG问题的出现。

下面看下time.h中的time函数,sys/time.h中的gettimeofday函数

#include<time.h>
#include<sys/time.h>
#include<stdio.h>

int main(){
    time_ttt;
    structtimeval tv;
   tt=time(NULL);
   gettimeofday(&tv,NULL);
   printf("time_t sec is %d\n",tt);
   printf("gettimeofday tv_sec is %d, usec is %d\n",tv.tv_sec,tv.tv_usec);
}

PS: time 与 gettimeofday两个函数得到的都是从Epoch开始到当前的秒数(tt=tv.tv_sec),而后者还能得到更精细的微秒级结果,即tv_sec*(10^6)+tv_usec为从Epoch开始到当前的微秒数

 

把gettimeofday取出的时间转换成标准格式——有些事看起来很简单,做好却需要费一番力气

有些事看起来很简单,真的做好却需要费一番力气。

今天闲来无事,决定做个小程序,把刚写的程序中用到的gettimeofday函数取出的时间,转换成标准的时间格式(YYYY-MM-DDHH24:MI:SS.USEC),很快把程序做出来了。

#include<stdio.h>
#include <sys/time.h>
//typedef long long Int64;
#define BEIJINGTIME 8;

 

main()
{
    structtimeval tv;
    structtimezone tz;

 

    long tm =0;
    long sec =0, usec = 0;
    int yy = 0,mm = 0, dd = 0, hh = 0, mi = 0, ss = 0, ms =0;
    int m[12] ={31, 28, 31, 30, 31, 30, 31, 31, 30, 31, 30, 31};
    int i;

 

   gettimeofday(&tv, &tz);

 

    sec =tv.tv_sec;
    sec = sec +60*60*BEIJINGTIME;
    usec =tv.tv_usec;

    //年

    yy =sec/(60*60*24*(365*4+1)/4) + 1970;

    //日
    dd =sec/(60*60*24) - ((yy - 1970)*365 + (yy - 1968)/4);

 

    //月

    if(0 ==yy00)
    {
       if(0 == (yy/1000)%4)
       {
           m[1] = 29;
       }
    }
    else
    {
       if(0 == yy%4)
       {
           m[1] = 29;
       }
    }

 

    for(i = 1; i<= 12; i++)
    {
       if(dd - m[i] < 0)
       {
           break;
       }
       else
       {
           dd = dd -m[i];
       }
    }

 

    mm = i;

 

    //小时
    hh =sec/(60*60)$;

    //分

    mi = sec/60- sec/(60*60)*60;

    //秒
    ss = sec -sec/60*60;
    ms =usec;
   printf("%d-d-d d:d:d.d\n", yy, mm, dd, hh, mi, ss, ms);

 

    return1;
}

 

执行结果开起来也没问题;

2009-11-27 12:37:38.435576

乍一看,程序似乎没有什么问题,仔细看上面的程序,却有很多疏漏,由于对闰年的考虑不够周全,当时间到达每年年初在某段时间内会出现年和天的取值错误问题,当然,我这个程序只是做出来玩玩,不一定有多大用处,但把程序做的离完美一点不是坏事。

考虑闰年的计算修改程序如下:

#include<stdio.h>
#include <string.h>
#include <sys/time.h>

 

#define BEIJINGTIME 8
#defineDAY       (60*60*24)
#define YEARFIRST  2001
#define YEARSTART  (365*(YEARFIRST-1970) +8)
#defineYEAR400   (365*4*100 + (4*(100/4 - 1) + 1))
#defineYEAR100   (365*100 + (100/4 - 1))
#defineYEAR004   (365*4 + 1)
#defineYEAR001   365

 

 

 

int main(int argc, char *argv[])
{
    structtimeval tv;

 

    long sec =0, usec = 0;
    int yy = 0,mm = 0, dd = 0, hh = 0, mi = 0, ss = 0, ms = 0;
    int ad =0;
    int y400 =0, y100 = 0, y004 = 0, y001 = 0;
    int m[12] ={31, 28, 31, 30, 31, 30, 31, 31, 30, 31, 30, 31};
    int i;

 

   memset(&tv, 0, sizeof(timeval));

 

   gettimeofday(&tv, NULL);

 

    sec =tv.tv_sec;
    usec =tv.tv_usec;
    sec = sec +(60*60)*BEIJINGTIME;

 

    ad =sec/DAY;

    ad = ad -YEARSTART;
    y400 =ad/YEAR400;

    y100 = (ad -y400*YEAR400)/YEAR100;
    y004 = (ad -y400*YEAR400 - y100*YEAR100)/YEAR004;
    y001 = (ad -y400*YEAR400 - y100*YEAR100 - y004*YEAR004)/YEAR001;

 

    yy =y400*4*100 + y100*100 + y004*4 + y001*1 + YEARFIRST;
    dd = (ad -y400*YEAR400 - y100*YEAR100 - y004*YEAR004)%YEAR001;

 

    //月 日
    if(0 ==yy00)
    {
       if(0 == (yy/1000)%4)
       {
           m[1] = 29;
       }
    }
    else
    {
       if(0 == yy%4)
       {
           m[1] = 29;
       }
    }

 

    for(i = 1; i<= 12; i++)
    {
       if(dd - m[i] < 0)
       {
           break;
       }
       else
       {
           dd = dd -m[i];
       }
    }

 

    mm =i;
    //小时
    hh =sec/(60*60)$;
    //分
    mi = sec/60- sec/(60*60)*60;
    //秒
    ss = sec -sec/60*60;
    ms =usec;
   printf("%d-d-d d:d:d.d\n", yy, mm, dd, hh, mi, ss, ms);

 

    return1;
}
到目前为止,我觉得没有问题了。

 

以上程序仅供娱乐。如果问题,欢迎指正。

 

Linux下时间度量的深入分析 收藏

一)ANSI clock函数

 

 

1)概述:

clock函数的返回值类型是clock_t,它除以CLOCKS_PER_SEC来得出时间,一般用两次clock函数来计算进程自身运行的时间.

 

ANSI clock有三个问题:

1)如果超过一个小时,将要导致溢出.

2)函数clock没有考虑CPU被子进程使用的情况.

3)也不能区分用户空间和内核空间.

 

所以clock函数在linux系统上变得没有意义.

 

2)测试

编写test1.c程序,测试采用clock函数的输出与time程序的区别.

 

vi test1.c

#include <stdio.h>

#include <stdlib.h>

#include <time.h>

 

int main( void )

{

   long i=1000L;

   clock_t start, finish;

   double duration;

   printf( "Time to do %ldempty loops is ", i );

   start = clock();

   while (--i){

   system("cd");

   }

   finish = clock();

   duration = (double)(finish- start) / CLOCKS_PER_SEC;

   printf( "%f seconds\n",duration );

   return 0;

}

 

gcc test1.c -o test1

 

time ./test1

Time to do 1000 empty loops is 0.180000 seconds

 

real   0m3.492s

user   0m0.512s

sys    0m2.972s

 

3)总结:

(1)程序调用 system("cd");,这里主要是系统模式子进程的消耗,test1程序不能体现这一点.

(2)0.180000 seconds秒的消耗是两次clock()函数调用除以CLOCKS_PER_SEC.

(3)clock()函数返回值是一个相对时间,而不是绝对时间.

(4)CLOCKS_PER_SEC是系统定义的宏,由GNU标准库定义为1000000.

 

 

二)times()时间函数

 

1)概述:

 

原型如下:

clock_t times(struct tms *buf);

 

tms结构体如下:

strace tms{

 clock_t tms_utime;

 clock_t tms_stime;

 clock_t tms_cutime;

 clock_t tms_cstime;

}

 

注释:

tms_utime记录的是进程执行用户代码的时间.

tms_stime记录的是进程执行内核代码的时间.

tms_cutime记录的是子进程执行用户代码的时间.

tms_cstime记录的是子进程执行内核代码的时间.

 

 

2)测试:

 

vi test2.c

#include <sys/times.h>

#include <stdio.h>

#include <stdlib.h>

#include <sys/types.h>

#include <unistd.h>

 

static void do_cmd(char *);

static void pr_times(clock_t, struct tms *, struct tms *);

 

int main(int argc, char *argv[]){

       int i;

       for(i=1; argv[i]!=NULL; i++){

               do_cmd(argv[i]);

       }

       exit(1);

}

static void do_cmd(char *cmd){

       struct tms tmsstart, tmsend;

       clock_t start, end;

       int status;

       if((start=times(&tmsstart))== -1)

               puts("times error");

       if((status=system(cmd))<0)

               puts("system error");

       if((end=times(&tmsend))== -1)

               puts("times error");

       pr_times(end-start, &tmsstart,&tmsend);

       exit(0);

}

static void pr_times(clock_t real, struct tms *tmsstart, structtms *tmsend){

       static long clktck=0;

       if(0 == clktck)

               if((clktck=sysconf(_SC_CLK_TCK))<0)

                          puts("sysconf err");

       printf("real:%7.2f\n", real/(double)clktck);

       printf("user-cpu:%7.2f\n",(tmsend->tms_utime -tmsstart->tms_utime)/(double)clktck);

       printf("system-cpu:%7.2f\n", (tmsend->tms_stime -tmsstart->tms_stime)/(double)clktck);

       printf("child-user-cpu:%7.2f\n", (tmsend->tms_cutime- tmsstart->tms_cutime)/(double)clktck);

       printf("child-system-cpu:%7.2f\n",(tmsend->tms_cstime -tmsstart->tms_cstime)/(double)clktck);

}

 

编译:

gcc test2.c -o test2

 

测试这个程序:

time ./test2 "dd if=/dev/zero f=/dev/null bs=1M count=10000"

10000+0 records in

10000+0 records out

10485760000 bytes (10 GB) copied, 4.93028 s, 2.1 GB/s

real:   4.94

user-cpu:   0.00

system-cpu:   0.00

child-user-cpu:   0.01

child-system-cpu:   4.82

 

real   0m4.943s

user   0m0.016s

sys    0m4.828s

 

 

3)总结:

(1)通过这个测试,系统的time程序与test2程序输出基本一致了.

(2)(double)clktck是通过clktck=sysconf(_SC_CLK_TCK)来取的,也就是要得到user-cpu所占用的时间,就要用

(tmsend->tms_utime -tmsstart->tms_utime)/(double)clktck);

(3)clock_t times(struct tms *buf);返回值是过去一段时间内时钟嘀嗒的次数.

(4)times()函数返回值也是一个相对时间.

 

三)实时函数clock_gettime

 

在POSIX1003.1中增添了这个函数,它的原型如下:

int clock_gettime(clockid_t clk_id, struct timespec *tp);

 

它有以下的特点:

1)它也有一个时间结构体:timespec ,timespec计算时间次数的单位是十亿分之一秒.

strace timespec{

 time_t tv_sec;

 long tv_nsec;

}

 

2)clockid_t是确定哪个时钟类型.

 

CLOCK_REALTIME: 标准POSIX实时时钟

CLOCK_MONOTONIC:POSIX时钟,以恒定速率运行;不会复位和调整,它的取值和CLOCK_REALTIME是一样的.

CLOCK_PROCESS_CPUTIME_ID和CLOCK_THREAD_CPUTIME_ID是CPU中的硬件计时器中实现的.

 

 

3)测试:

#include<time.h>

#include<stdio.h>

#include<stdlib.h>

 

#define MILLION 1000000

 

 

int main(void)

{

       long int loop = 1000;

       struct timespec tpstart;

       struct timespec tpend;

       long timedif;

 

       clock_gettime(CLOCK_MONOTONIC, &tpstart);

 

       while (--loop){

               system("cd");

       }

 

       clock_gettime(CLOCK_MONOTONIC, &tpend);

       timedif =MILLION*(tpend.tv_sec-tpstart.tv_sec)+(tpend.tv_nsec-tpstart.tv_nsec)/1000;

       fprintf(stdout, "it took %ld microseconds\n", timedif);

 

       return 0;

}

 

编译:

gcc test3.c -lrt -o test3

 

计算时间:

time ./test3

it took 3463843 microseconds

 

real   0m3.467s

user   0m0.512s

sys    0m2.936s

 

 

四)时间函数gettimeofday()

 

1)概述:

gettimeofday()可以获得当前系统的时间,是一个绝对值

 

原型如下:

int gettimeofday ( struct timeval * tv , struct timezone * tz)

 

timeval结型体的原型如下:

struct timeval {

              time_t     tv_sec;    

              suseconds_ttv_usec;   

          };

 

所以它可以精确到微秒

 

 

测试:

#include <sys/time.h>

#include <stdio.h>

#include <unistd.h>

int

main(){

       int i=10000000;

       struct timeval tvs,tve;

       gettimeofday(&tvs,NULL);

       while (--i);

       gettimeofday(&tve,NULL);

       double span = tve.tv_sec-tvs.tv_sec +(tve.tv_usec-tvs.tv_usec)/1000000.0;

       printf("time: %.12f\n",span);

       return 0;

}

 

gcc test5.c

./a.out

time: 0.041239000000

 

五)四种时间函数的比较

 

1)精确度比较:

 

以下是各种精确度的类型转换:

1秒=1000毫秒(ms), 1毫秒=1/1000秒(s);

1秒=1000000 微秒(μs), 1微秒=1/1000000秒(s);

1秒=1000000000 纳秒(ns),1纳秒=1/1000000000秒(s);

 

 

2)

clock()函数的精确度是10毫秒(ms)

times()函数的精确度是10毫秒(ms)

gettimofday()函数的精确度是微秒(μs)

clock_gettime()函数的计量单位为十亿分之一,也就是纳秒(ns)

 

 

3)测试4种函数的精确度:

 

vi test4.c

 

 

#include   <stdio.h>

#include   <stdlib.h>

#include   <unistd.h>

#include   <time.h>

#include   <sys/times.h>

#include   <sys/time.h>

#define WAIT for(i=0;i<298765432;i++);

#defineMILLION   1000000

    int

main ( int argc, char *argv[] )

{

    inti;

    longttt;

    clock_ts,e;

    structtms aaa;

 

 

   s=clock();

    WAIT;

   e=clock();

   printf("clock time : %.12f\n",(e-s)/(double)CLOCKS_PER_SEC);

 

    long tps= sysconf(_SC_CLK_TCK);

   s=times(&aaa);

    WAIT;

   e=times(&aaa);

   printf("times time : %.12f\n",(e-s)/(double)tps);

 

    structtimeval tvs,tve;

   gettimeofday(&tvs,NULL);

    WAIT;

   gettimeofday(&tve,NULL);

    doublespan = tve.tv_sec-tvs.tv_sec +(tve.tv_usec-tvs.tv_usec)/1000000.0;

   printf("gettimeofday time: %.12f\n",span);

 

    structtimespec tpstart;

    structtimespec tpend;

 

   clock_gettime(CLOCK_REALTIME, &tpstart);

    WAIT;

   clock_gettime(CLOCK_REALTIME, &tpend);

    doubletimedif =(tpend.tv_sec-tpstart.tv_sec)+(tpend.tv_nsec-tpstart.tv_nsec)/1000000000.0;

   printf("clock_gettime time: %.12f\n", timedif);

 

    returnEXIT_SUCCESS;

}

 

gcc -lrt test4.c -o test4

debian:/tmp# ./test4

clock time : 1.190000000000

times time : 1.180000000000

gettimeofday time: 1.186477000000

clock_gettime time: 1.179271718000

 

六)内核时钟

 

默认的Linux时钟周期是100HZ,而现在最新的内核时钟周期默认为250HZ.

如何得到内核的时钟周期呢?

grep ^CONFIG_HZ /boot/config-2.6.26-1-xen-amd64

 

CONFIG_HZ_250=y

CONFIG_HZ=250

 

结果就是250HZ.

 

而用sysconf(_SC_CLK_TCK);得到的却是100HZ

例如:

 

#include   <stdio.h>

#include   <stdlib.h>

#include   <unistd.h>

#include   <time.h>

#include   <sys/times.h>

#include   <sys/time.h>

 

int

main ( int argc, char *argv[] )

{

 

    long tps= sysconf(_SC_CLK_TCK);

   printf("%ld\n", tps);

   

    returnEXIT_SUCCESS;

}

 

为什么得到的是不同的值呢?

因为sysconf(_SC_CLK_TCK)和CONFIG_HZ所代表的意义是不同的.

sysconf(_SC_CLK_TCK)是GNU标准库的clock_t频率.

它的定义位置在:/usr/include/asm/param.h

 

例如:

#ifndef HZ

#define HZ 100

#endif

 

最后总结一下内核时间:

内核的标准时间是jiffy,一个jiffy就是一个内部时钟周期,而内部时钟周期是由250HZ的频率所产生中的,也就是一个时钟滴答,间隔时间是4毫秒(ms).

 

也就是说:

1个jiffy=1个内部时钟周期=250HZ=1个时钟滴答=4毫秒

 

每经过一个时钟滴答就会调用一次时钟中断处理程序,处理程序用jiffy来累计时钟滴答数,每发生一次时钟中断就增1.

而每个中断之后,系统通过调度程序跟据时间片选择是否要进程继续运行,或让进程进入就绪状态.

 

最后需要说明的是每个操作系统的时钟滴答频率都是不一样的,LINUX可以选择(100,250,1000)HZ,而DOS的频率是55HZ.

 

七)为应用程序计时

 

用time程序可以监视任何命令或脚本占用CPU的情况.

 

1)bash内置命令time

例如:

time sleep 1

 

real   0m1.016s

user   0m0.000s

sys    0m0.004s

 

 

2)/usr/bin/time的一般命令行

例如:

\time sleep 1

0.00user 0.00system 0:01.01elapsed 0%CPU (0avgtext+0avgdata0maxresident)k

0inputs+0outputs (1major+176minor)pagefaults 0swaps

 

注:

在命令前加上斜杠可以绕过内部命令.

/usr/bin/time还可以加上-v看到更具体的输出:

\time -v sleep 1

       Command being timed: "sleep 1"

       User time (seconds): 0.00

       System time (seconds): 0.00

       Percent of CPU this job got: 0%

       Elapsed (wall clock) time (h:mm:ss or m:ss): 0:01.00

       Average shared text size (kbytes): 0

       Average unshared data size (kbytes): 0

       Averagestack size (kbytes): 0

       Average total size (kbytes): 0

       Maximum resident set size (kbytes): 0

       Average resident set size (kbytes): 0

       Major (requiring I/O) page faults: 0

       Minor (reclaiming a frame) page faults: 178

       Voluntary context switches: 2

       Involuntary context switches: 0

       Swaps: 0

       File system inputs: 0

       File system outputs: 0

       Socket messages sent: 0

       Socket messages received: 0

       Signals delivered: 0

       Page size (bytes): 4096

       Exit status: 0

       

这里的输出更多来源于结构体rusage.

 

最后,我们看到real time大于user time和systime的总和,这说明进程不是在系统调用中阻塞,就是得不到运行的机会.

而sleep()的运用,也说明了这一点.

 

注:

 

千分之一秒叫毫秒(millisecond,ms);

千分之一毫秒叫微秒(micro-second,μs);

千分之一微秒叫纳秒(nanosecond,ns);

千分之一纳秒叫皮秒(picosecond,ps);

 

1G的cpu一个时钟周期用时是1纳秒。

 

 

 

本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/zhangxinrun/archive/2010/05/13/5587098.aspx

 

linux下的时间函数使用 收藏

本文从介绍基础概念入手,探讨了在C/C++中对日期和时间操作所用到的数据结构和函数,并对计时、时间的获取、时间的计算和显示格式等方面进行了阐述。本文还通过大量的实例向你展示了time.h头文件中声明的各种函数和数据结构的详细使用方法。 

 

关键字:UTC(世界标准时间),Calendar Time(日历时间),epoch(时间点),clocktick(时钟计时单元) 

 

1.概念 

在C/C++中,对字符串的操作有很多值得注意的问题,同样,C/C++对时间的操作也有许多值得大家注意的地方。最近,在技术群中有很多网友也多次问到过C++语言中对时间的操作、获取和显示等等的问题。下面,在这篇文章中,笔者将主要介绍在C/C++中时间和日期的使用方法. 

 

通过学习许多C/C++库,你可以有很多操作、使用时间的方法。但在这之前你需要了解一些“时间”和“日期”的概念,主要有以下几个: 

 

Coordinated UniversalTime(UTC):协调世界时,又称为世界标准时间,也就是大家所熟知的格林威治标准时间(Greenwich MeanTime,GMT)。比如,中国内地的时间与UTC的时差为+8,也就是UTC+8。美国是UTC-5。 

 

CalendarTime:日历时间,是用“从一个标准时间点到此时的时间经过的秒数”来表示的时间。这个标准时间点对不同的编译器来说会有所不同,但对一个编译系统来说,这个标准时间点是不变的,该编译系统中的时间对应的日历时间都通过该标准时间点来衡量,所以可以说日历时间是“相对时间”,但是无论你在哪一个时区,在同一时刻对同一个标准时间点来说,日历时间都是一样的。 

 

epoch:时间点。时间点在标准C/C++中是一个整数,它用此时的时间和标准时间点相差的秒数(即日历时间)来表示。 

 

clock tick:时钟计时单元(而不把它叫做时钟滴答次数),一个时钟计时单元的时间长短是由CPU控制的。一个clocktick不是CPU的一个时钟周期,而是C/C++的一个基本计时单位。 

 

我们可以使用ANSI标准库中的time.h头文件。这个头文件中定义的时间和日期所使用的方法,无论是在结构定义,还是命名,都具有明显的C语言风格。下面,我将说明在C/C++中怎样使用日期的时间功能。 

 

2. 计时 

 

C/C++中的计时函数是clock(),而与其相关的数据类型是clock_t。在MSDN中,查得对clock函数定义如下: 

 

clock_t clock( void ); 

 

这 个函数返回从“开启这个程序进程”到“程序中调用clock()函数”时之间的CPU时钟计时单元(clocktick)数,在MSDN中称之为挂钟时间(wal-clock)。其中clock_t是用来保存时间的数据类型,在time.h文件中,我们可以找到对它的定义: 

 

#ifndef _CLOCK_T_DEFINED 

typedef long clock_t; 

#define _CLOCK_T_DEFINED 

#endif 

 

很明显,clock_t是一个长整形数。在time.h文件中,还定义了一个常量CLOCKS_PER_SEC,它用来表示一秒钟会有多少个时钟计时单元,其定义如下: 

 

#define CLOCKS_PER_SEC ((clock_t)1000) 

 

可以看到每过千分之一秒(1毫秒),调用clock()函数返回的值就加1。下面举个例子,你可以使用公式clock()/CLOCKS_PER_SEC来计算一个进程自身的运行时间: 

 

void elapsed_time() 

printf("Elapsed time:%usecs.\n",clock()/CLOCKS_PER_SEC); 

 

当然,你也可以用clock函数来计算你的机器运行一个循环或者处理其它事件到底花了多少时间: 

 

#include “stdio.h” 

#include “stdlib.h” 

#include<time.h> 

 

int main( void ) 

long i = 10000000L; 

clock_t start, finish; 

double duration; 

 

printf( "Time to do %ld empty loops is ", i); 

start = clock(); 

while( i-- ) ; 

finish = clock(); 

duration = (double)(finish - start) /CLOCKS_PER_SEC; 

printf( "%f seconds\n", duration ); 

system("pause"); 

 

在笔者的机器上,运行结果如下: 

 

Time to do 10000000 empty loops is 0.03000seconds 

 

上面我们看到时钟计时单元的长度为1毫秒,那么计时的精度也为1毫秒,那么我们可不可以通过改变CLOCKS_PER_SEC的定义,通过把它定义的大一些,从而使计时精度更高呢?通过尝试,你会发现这样是不行的。在标准C/C++中,最小的计时单位是一毫秒。 

 

3.与日期和时间相关的数据结构 

 

在标准C/C++中,我们可通过tm结构来获得日期和时间,tm结构在time.h中的定义如下: 

 

#ifndef _TM_DEFINED 

struct tm { 

int tm_sec;  

int tm_min;  

int tm_hour;  

int tm_mday;  

int tm_mon;  

int tm_year;  

int tm_wday;  

int tm_yday;  

int tm_isdst;  

}; 

#define _TM_DEFINED 

#endif 

 

ANSI C标准称使用tm结构的这种时间表示为分解时间(broken-downtime)。 

 

而日历时间(CalendarTime)是通过time_t数据类型来表示的,用time_t表示的时间(日历时间)是从一个时间点(例如:1970年1月1日0时0分0秒)到此时的秒数。在time.h中,我们也可以看到time_t是一个长整型数: 

 

#ifndef _TIME_T_DEFINED 

typedef long time_t;  

#define _TIME_T_DEFINED  

#endif 

 

大家可能会产生疑问:既然time_t实际上是长整型,到未来的某一天,从一个时间点(一般是1970年1月1日0时0分0秒)到那时的秒数(即日历时间)超出了长整形所能表示的数的范围怎么办?对time_t数据类型的值来说,它所表示的时间不能晚于2038年1月18日19时14分07秒。为了能够表示更久远的时间,一些编译器厂商引入了64位甚至更长的整形数来保存日历时间。比如微软在VisualC++中采用了__time64_t数据类型来保存日历时间,并通过_time64()函数来获得日历时间(而不是通过使用32位字的time()函数),这样就可以通过该数据类型保存3001年1月1日0时0分0秒(不包括该时间点)之前的时间。 

 

在time.h头文件中,我们还可以看到一些函数,它们都是以time_t为参数类型或返回值类型的函数: 

 

double difftime(time_t time1, time_ttime0); 

time_t mktime(struct tm * timeptr); 

time_t time(time_t * timer); 

char * asctime(const struct tm * timeptr); 

char * ctime(const time_t *timer); 

 

此外,time.h还提供了两种不同的函数将日历时间(一个用time_t表示的整数)转换为我们平时看到的把年月日时分秒分开显示的时间格式tm: 

 

struct tm * gmtime(const time_t *timer); 

struct tm * localtime(const time_t *timer); 

 

通 过查阅MSDN,我们可以知道Microsoft C/C++7.0中时间点的值(time_t对象的值)是从1899年12月31日0时0分0秒到该时间点所经过的秒数,而其它各种版本的MicrosoftC/C++和所有不同版本的VisualC++都是计算的从1970年1月1日0时0分0秒到该时间点所经过的秒数。 

 

4.与日期和时间相关的函数及应用 

在本节,我将向大家展示怎样利用time.h中声明的函数对时间进行操作。这些操作包括取当前时间、计算时间间隔、以不同的形式显示时间等内容。 

 

4.1 获得日历时间 

 

我们可以通过time()函数来获得日历时间(Calendar Time),其原型为:

time_t time(time_t * timer); 

 

如果你已经声明了参数timer,你可以从参数timer返回现在的日历时间,同时也可以通过返回值返回现在的日历时间,即从一个时间点(例如:1970年1月1日0时0分0秒)到现在此时的秒数。如果参数为空(NULL),函数将只通过返回值返回现在的日历时间,比如下面这个例子用来显示当前的日历时间: 

 

#include<time.h> 

#include "stdio.h" 

int main(void) 

struct tm *ptr; 

time_t lt; 

lt =time(NULL); 

printf("The Calendar Time now is%d\n",lt); 

return 0; 

 

运行的结果与当时的时间有关,我当时运行的结果是: 

 

The Calendar Time now is 1122707619 

 

其中1122707619就是我运行程序时的日历时间。即从1970年1月1日0时0分0秒到此时的秒数。 

 

4.2 获得日期和时间 

 

这里说的日期和时间就是我们平时所说的年、月、日、时、分、秒等信息。从第2节我们已经知道这些信息都保存在一个名为tm的结构体中,那么如何将一个日历时间保存为一个tm结构的对象呢? 

 

其中可以使用的函数是gmtime()和localtime(),这两个函数的原型为: 

 

struct tm * gmtime(const time_t *timer); 

struct tm * localtime(const time_t *timer); 

 

其中gmtime()函数是将日历时间转化为世界标准时间(即格林尼治时间),并返回一个tm结构体来保存这个时间,而localtime()函数是将日历时间转化为本地时间。比如现在用gmtime()函数获得的世界标准时间是2005年7月30日7点18分20秒,那么我用localtime()函数在中国地区获得的本地时间会比世界标准时间晚8个小时,即2005年7月30日15点18分20秒。下面是个例子: 

 

#include<time.h> 

#include "stdio.h" 

int main(void) 

struct tm *local; 

time_t t; 

t=time(NULL); 

local=localtime(&t); 

printf("Local hour is:%d\n",local->tm_hour); 

local=gmtime(&t); 

printf("UTC hour is:%d\n",local->tm_hour); 

return 0; 

 

运行结果是: 

 

Local hour is: 15 

UTC hour is: 7 

 

4.3 固定的时间格式 

 

我们可以通过asctime()函数和ctime()函数将时间以固定的格式显示出来,两者的返回值都是char*型的字符串。返回的时间格式为: 

 

星期几 月份 日期 时:分:秒 年\n\0 

例如:Wed Jan 02 02:03:55 1980\n\0 

 

其中\n是一个换行符,\0是一个空字符,表示字符串结束。下面是两个函数的原型: 

 

char * asctime(const struct tm * timeptr); 

char * ctime(const time_t *timer); 

 

其中asctime()函数是通过tm结构来生成具有固定格式的保存时间信息的字符串,而ctime()是通过日历时间来生成时间字符串。这样的话,asctime()函数只是把tm结构对象中的各个域填到时间字符串的相应位置就行了,而ctime()函数需要先参照本地的时间设置,把日历时间转化为本地时间,然后再生成格式化后的字符串。在下面,如果t是一个非空的time_t变量的话,那么: 

 

printf(ctime(&t)); 

 

等价于: 

 

struct tm *ptr; 

ptr=localtime(&t); 

printf(asctime(ptr)); 

 

那么,下面这个程序的两条printf语句输出的结果就是不同的了(除非你将本地时区设为世界标准时间所在的时区): 

 

#include<time.h> 

#include "stdio.h" 

int main(void) 

struct tm *ptr; 

time_t lt; 

lt =time(NULL); 

ptr=gmtime(<); 

printf(asctime(ptr)); 

printf(ctime(<)); 

return 0; 

 

运行结果: 

 

Sat Jul 30 08:43:03 2005 

Sat Jul 30 16:43:03 2005 

 

4.4 自定义时间格式 

 

我们可以使用strftime()函数将时间格式化为我们想要的格式。它的原型如下: 

 

size_t strftime( 

char *strDest, 

size_t maxsize, 

const char *format, 

const struct tm *timeptr 

); 

 

 

 

我们可以根据format指向字符串中格式命令把timeptr中保存的时间信息放在strDest指向的字符串中,最多向strDest中存放maxsize个字符。该函数返回向strDest指向的字符串中放置的字符数。 

 

函数strftime()的操作有些类似于sprintf():识别以百分号(%)开始的格式命令集合,格式化输出结果放在一个字符串中。格式化命令说明串strDest中各种日期和时间信息的确切表示方法。格式串中的其他字符原样放进串中。格式命令列在下面,它们是区分大小写的。 

 

%a 星期几的简写 

%A 星期几的全称 

%b 月分的简写 

%B 月份的全称 

%c 标准的日期的时间串 

%C 年份的后两位数字 

%d 十进制表示的每月的第几天 

%D 月/天/年 

%e 在两字符域中,十进制表示的每月的第几天 

%F 年-月-日 

%g 年份的后两位数字,使用基于周的年 

%G 年分,使用基于周的年 

%h 简写的月份名 

%H 24小时制的小时 

%I 12小时制的小时 

%j 十进制表示的每年的第几天 

%m 十进制表示的月份 

%M 十时制表示的分钟数 

%n 新行符 

%p 本地的AM或PM的等价显示 

%r 12小时的时间 

%R 显示小时和分钟:hh:mm 

%S 十进制的秒数 

%t 水平制表符 

%T 显示时分秒:hh:mm:ss 

%u 每周的第几天,星期一为第一天 (值从0到6,星期一为0) 

%U 第年的第几周,把星期日做为第一天(值从0到53) 

%V 每年的第几周,使用基于周的年 

%w 十进制表示的星期几(值从0到6,星期天为0) 

%W 每年的第几周,把星期一做为第一天(值从0到53) 

%x 标准的日期串 

%X 标准的时间串 

%y 不带世纪的十进制年份(值从0到99) 

%Y 带世纪部分的十进制年份 

%z,%Z 时区名称,如果不能得到时区名称则返回空字符。 

%% 百分号 

 

如果想显示现在是几点了,并以12小时制显示,就象下面这段程序: 

 

#include<time.h> 

#include “stdio.h” 

int main(void) 

struct tm *ptr; 

time_t lt; 

char str[80]; 

lt=time(NULL); 

ptr=localtime(<); 

strftime(str,100,"It is now %I %p",ptr); 

printf(str); 

return 0; 

 

其运行结果为: 

It is now 4PM 

 

而下面的程序则显示当前的完整日期: 

 

#include<stdio.h> 

#include<time.h> 

 

void main( void ) 

struct tm *newtime; 

char tmpbuf[128]; 

time_t lt1; 

time( &lt1 ); 

newtime=localtime(&lt1); 

strftime( tmpbuf, 128, "Today is %A, day %d of %B in the year%Y.\n", newtime); 

printf(tmpbuf); 

 

运行结果: 

 

Today is Saturday, day 30 of July in the year2005. 

 

4.5 计算持续时间的长度 

 

有时候在实际应用中要计算一个事件持续的时间长度,比如计算打字速度。在第1节计时部分中,我已经用clock函数举了一个例子。Clock()函数可以精确到毫秒级。同时,我们也可以使用difftime()函数,但它只能精确到秒。该函数的定义如下: 

 

double difftime(time_t time1, time_ttime0); 

 

虽然该函数返回的以秒计算的时间间隔是double类型的,但这并不说明该时间具有同double一样的精确度,这是由它的参数觉得的(time_t是以秒为单位计算的)。比如下面一段程序: 

 

#include<time.h> 

#include "stdio.h" 

#include "stdlib.h" 

int main(void) 

time_t start,end; 

start = time(NULL); 

system("pause"); 

end = time(NULL); 

printf("The pause used %fseconds.\n",difftime(end,start));//<- 

 //system("pause"); 

return 0; 

 

运行结果为: 

请按任意键继续. . . 

The pause used 2.000000 seconds. 

请按任意键继续. . . 

 

可以想像,暂停的时间并不那么巧是整整2秒钟。其实,你将上面程序的带有“//<-”注释的一行用下面的一行代码替换: 

 

printf("The pause used %fseconds.\n",end-start); 

 

其运行结果是一样的。 

 

4.6 分解时间转化为日历时间 

 

这里说的分解时间就是以年、月、日、时、分、秒等分量保存的时间结构,在C/C++中是tm结构。我们可以使用mktime()函数将用tm结构表示的时间转化为日历时间。其函数原型如下: 

 

time_t mktime(struct tm * timeptr); 

 

其返回值就是转化后的日历时间。这样我们就可以先制定一个分解时间,然后对这个时间进行操作了,下面的例子可以计算出1997年7月1日是星期几: 

 

#include<time.h> 

#include "stdio.h" 

#include "stdlib.h" 

int main(void) 

struct tm t; 

time_t t_of_day; 

t.tm_year=1997-1900; 

t.tm_mon=6; 

t.tm_mday=1; 

t.tm_hour=0; 

t.tm_min=0; 

t.tm_sec=1; 

t.tm_isdst=0; 

t_of_day=mktime(&t); 

printf(ctime(&t_of_day)); 

return 0; 

运行结果: 

Tue Jul 01 00:00:01 1997 

现在注意了,有了mktime()函数,是不是我们可以操作现在之前的任何时间呢?你可以通过这种办法算出1945年8月15号是星期几吗?答案是否定的。因为这个时间在1970年1月1日之前,所以在大多数编译器中,这样的程序虽然可以编译通过,但运行时会异常终止。

 

 

 

 

Trackback:http://tb.blog.csdn.net/TrackBack.aspx?PostId=1627535

 

 

 

本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/hahapro/archive/2007/06/14/1653017.aspx

Logo

更多推荐