标签:
对于算法的复杂度,一种直观感知方法是测量一定数量级数据的算法运行时间。
以C语言提供的qsort为例子,以100万数据量测试其计算时间,可感知O(nlg(n))的时间代价:
C代码如下:
#include <stdio.h> #include <stdlib.h> #include <time.h> #define N 1000000 //int (*Comp)(const void *,const void *) int compare(const void *p1, const void *p2) { return *(float*)p1 > *(float*)p2; } int main() { float x[N]; srand( time(NULL) ); clock_t t1 = clock(); for(int j = 0; j < 10; j++) { for(long i = 0; i < N; i++) x[i] = (float)rand()/RAND_MAX; qsort(x, N, sizeof(float), compare); } for(int i = 0; i < 10; i++) printf("%f ", x[i]); printf("\n"); clock_t t2 = clock(); printf("浮点数排序算法用时:%f 秒\n", (double)(t2 - t1)/ CLOCKS_PER_SEC); return 0; }
~/tmp$ ./a.out
0.000000 0.000001 0.000001 0.000002 0.000002 0.000004 0.000004 0.000005 0.000006 0.000006
浮点数排序算法用时:2.236941 秒
标签:
原文地址:http://blog.csdn.net/miscclp/article/details/44288113