码迷,mamicode.com
首页 > Windows程序 > 详细

在windows下计算两个时间的时间差(精确到毫秒)

时间:2016-05-07 10:04:02      阅读:463      评论:0      收藏:0      [点我收藏+]

标签:

首先,认识一下clock()和GetTickCount():

一、clock()
clock()是C/C++中的计时函数,而与其相关的数据类型是clock_t。在MSDN中,查得对clock函数定义如下:
clock_t clock(void) ;
简单而言,就是该程序从启动到函数调用占用CPU的时间。这个函数返回从“开启这个程序进程”到“程序中调用clock()函数”时之间的CPU时钟计时单元(clock tick)数,在MSDN中称之为挂钟时间(wal-clock);若挂钟时间不可取,则返回-1。其中clock_t是用来保存时间的数据类型。

在time.h文件中,我们可以找到对它的定义:

#ifndef _CLOCK_T_DEFINED
typedef long clock_t;
#define _CLOCK_T_DEFINED
#endif
很明显,clock_t是一个长整形数。在time.h文件中,还定义了一个常量CLOCKS_PER_SEC,它用来表示一秒钟会有多少个时钟计时单元,其定义如下:
#define CLOCKS_PER_SEC ((clock_t)1000)

可以看到每过千分之一秒(1毫秒),调用clock()函数返回的值就加1。简单的说就是clock()可以精确到1毫秒。
在linux系统下,CLOCKS_PER_SEC的值可能有所不同,目前使用的linux打印出来的值是1000000,表示的是微秒。这一点需要注意。


二、GetTickCount()
GetTickcount函数:它返回从操作系统启动到当前所经过的毫秒数,它的返回值是DWORD。常常用来判断某个方法执行的时间,其函数原型是DWORD GetTickCount(void),返回值以32位的双字类型DWORD存储,因此可以存储的最大值是(2^32-1) ms约为49.71天,因此若系统运行时间超过49.71天时,这个数就会归0,MSDN中也明确的提到了:"Retrieves the number of milliseconds that have elapsed since the system was started, up to 49.7 days."。因此,如果是编写服务器端程序,此处一定要万分注意,避免引起意外的状况。
特别注意:这个函数并非实时发送,而是由系统每18ms发送一次,因此其最小精度为18ms。当需要有小于18ms的精度计算时,应使用StopWatch方法进行。


使用clock计算时间差:

#include <time.h>  
#include <stdio.h>  
int main()  
{  
    double start,end,cost;  
    start=clock();  
    sleep(1);  
    end=clock();  
    cost=end-start;  
    printf("%f/n",cost);  
    return 0;  
}  


使用GetTickCount计算时间差:
#include <iostream>  
#include <windows.h>  
using namespace std;  
int main()  
{  
    double start = GetTickCount();  
    Sleep(1000);  
    double  end=GetTickCount();  
    cout << "GetTickCount:" << end-start << endl;  
        return 0;  
}  

可以看出,clock比GetTickCount具有更高的精度,所以如果需要更高精度的时间差,则建议使用clock。

在windows下计算两个时间的时间差(精确到毫秒)

标签:

原文地址:http://blog.csdn.net/hellokandy/article/details/51330028

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!